[go: up one dir, main page]

FR2910674A1 - Building's frontage structured image analyzing method, involves merging vertical or horizontal basic histogram with vertical or horizontal contour histogram, in vertical window histogram or horizontal window histogram - Google Patents

Building's frontage structured image analyzing method, involves merging vertical or horizontal basic histogram with vertical or horizontal contour histogram, in vertical window histogram or horizontal window histogram Download PDF

Info

Publication number
FR2910674A1
FR2910674A1 FR0655797A FR0655797A FR2910674A1 FR 2910674 A1 FR2910674 A1 FR 2910674A1 FR 0655797 A FR0655797 A FR 0655797A FR 0655797 A FR0655797 A FR 0655797A FR 2910674 A1 FR2910674 A1 FR 2910674A1
Authority
FR
France
Prior art keywords
histogram
image
vertical
horizontal
background
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
FR0655797A
Other languages
French (fr)
Inventor
Julien Ricard
Jerome Royan
Patrick Gioia
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Orange SA
Original Assignee
France Telecom SA
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by France Telecom SA filed Critical France Telecom SA
Priority to FR0655797A priority Critical patent/FR2910674A1/en
Priority to PCT/FR2007/052570 priority patent/WO2008093029A2/en
Publication of FR2910674A1 publication Critical patent/FR2910674A1/en
Withdrawn legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/12Edge-based segmentation
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/50Extraction of image or video features by performing operations within image blocks; by using histograms, e.g. histogram of oriented gradients [HoG]; by summing image-intensity values; Projection analysis
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20048Transform domain processing
    • G06T2207/20061Hough transform
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20068Projection on vertical or horizontal image axis

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)

Abstract

The method involves calculating a histogram representing a contour image such as vertical or horizontal contour histogram, along a vertical or horizontal direction. An appurtenance image is calculated at a bottom from a structured image, and a histogram i.e. vertical basic histogram or horizontal basic histogram, representing the image is calculated along a vertical or horizontal direction. The vertical or horizontal basic histogram is merged respectively with vertical or horizontal contour histogram, in a histogram such as vertical window histogram or horizontal window histogram. Independent claims are also included for the following: (1) a method for establishing a structured image (2) a structured image establishing system (3) a signal representing a visible data transports a structured image model obtained by analysis of the structured image (4) a computer program comprising instructions for implementing a method for establishing a structured image.

Description

1 Procédé d'analyse d'une image structurée, procédé de modélisation d'une1 Method for analyzing a structured image, method of modeling a

image structurée, système et dispositif correspondants La présente invention concerne de manière générale les domaines de l'analyse et du rendu d'image, et plus précisément celui de la visualisation de scènes urbaines en deux ou trois dimensions, constituées d'un nombre important de bâtiments. Une des applications de l'invention est en effet l'analyse d'images réelles de façades de bâtiments afin de les modéliser puis de permettre une reconstruction approximative mais rapide de ces images lors d'une navigation dans un environnement virtuel. Actuellement les systèmes d'informations géographiques existants parviennent à modéliser des bâtiments sur une grande zone et proposent des interfaces de navigation fluides permettant d'appréhender facilement un environnement urbain en deux ou trois dimensions. Afin de rendre l'environnement urbain réaliste, par exemple pour visiter virtuellement Paris sur un terminal, il faut que les textures affichées sur chaque bâtiment soient ressemblantes aux façades réelles et de résolutions correctes. Or les données de tels environnements sont généralement stockées sur un serveur distant, il n'est donc pas possible d'envoyer les images réelles des façades de chaque bâtiment au terminal au fur et à mesure de la visite, car la quantité d'informations à transmettre serait trop importante. Pour palier à ce problème, les systèmes actuels proposent d'afficher des images de texture génériques en les répétant plusieurs fois au sein de l'environnement urbain virtuel. Ceci permet l'envoi d'une faible quantité d'informations, mais entraîne une forte diminution de la qualité globale de navigation, car les textures affichées ne sont pas visuellement proches des bâtiments réels. Afin de reconstruire de façon plus granulaire des façades de bâtiments, 30 des langages de modélisation permettant de définir des éléments de façade, tels que des fenêtres ou des balcons, indépendamment d'une texture de fond, 2910674 2 ont été proposées dans différents travaux. Ainsi l'article "Modelling urban scenes for LBMS" de A. F. Coelho, A. A. de Sousa et F. N. Ferreira, publié en 2005 à l'occasion de la dixième conférence internationale "3D Web Technology", propose une grammaire XML, d'après l'anglais "eXtensible 5 Markup Language", qui permet de décrire complètement de grands environnements urbains en trois dimensions, et à partir de ces descriptions de reconstruire des bâtiments. Les villes sont ainsi modélisées avec de nombreux détails. De façon similaire, pour assurer à la fois une navigation dans un 10 environnement urbain réaliste, une bonne résolution et une quantité de données à transférer acceptable, il a été proposé au sein de la norme "Motion Picture Expert Group 4" (MPEG4), dans sa partie " Animation Framework eXtension ", de caractériser la façade d'un bâtiment, non par une image de texture unique, mais par des "modèles procéduraux de façades". Ceux-ci 15 contiennent des informations de reconstruction d'une façade, à partir d'un certain nombre de modèles d'éléments de façades, tels que des fenêtres, des portes, des balcons, et des textures de fond, qui sont stockés dans un catalogue. Ces modèles permettent de recréer des images de façades visuellement proches des façades d'origine, de dimensions quelconques, en 20 transmettant une faible quantité d'informations au terminal. Ces techniques de visualisation de scènes sont cependant limitées car elles requièrent l'intervention d'un opérateur pour modéliser manuellement les bâtiments et les façades, ce qui est très coûteux lorsque l'environnement à modéliser est de dimension urbaine notamment. De ce fait, l'analyse d'images 25 de façades afin de remplir automatiquement des modèles procéduraux de façades est devenue un enjeu important dans le domaine de l'analyse d'images. Néanmoins peu de méthodes permettent d'analyser automatiquement de telles images. Etant donné la diversité des architectures de façades, des types de revêtements extérieurs et des types d'éléments de façades, une des 2910674 3 principales difficultés à surmonter est notamment d'isoler les éléments de façade dans une image de façade. K.Schindler et J.Bauer, dans leur article "A model-based method for building reconstruction", publié en 2003 à l'occasion d'un atelier "Higher-Level 5 Knowledge in 3D Modelling and Motion" d'une conférence "International Conference on Computer Vision (ICCV)", présentent une méthode d'analyse de façades, dans laquelle les fenêtres d'une façade à analyser sont détectées par un algorithme de balayage basé sur la densité de points non incidents au plan de la façade. Cette méthode détecte donc les fenêtres comme étant des 10 objets derrière le plan de la façade, mais nécessite plusieurs images de départ de la façade, et leur combinaison suivant les paramètres des prises d'images, ce qui est complexe et peu pratique à mettre en oeuvre. De même l'article de H. Mayer et S. Reznik, intitulé "Building Façade Interpretation from Image Sequences", et publié dans les archives de la 15 société internationale "International Society for Photogrammetry and Remote Sensing (ISPRS)", utilise une méthode basée sur celle de K.Schindler et J.Bauer pour isoler les fenêtres d'une façade avant de les positionner et de les détecter plus finement sur le plan de la façade. Cette méthode présente donc les mêmes inconvénients que la méthode précédente, en termes de 20 complexité et de mise en oeuvre. Une méthode différente d'analyse d'images de façade est développée dans l'article "Extraction and Integration of Window in a 3D Building Model from Ground View Image", de S. C. Lee et R. Nevatia, publié à l'occasion de la conférence ICCV de 2004. Cette méthode permet d'isoler les éléments de 25 façade d'une façade à partir d'une seule image photographique prise depuis la rue. Cette méthode analyse des histogrammes de contours verticaux et horizontaux de l'image de façade, pour découper l'image en cellules contenant chacune un élément de façade. Cependant l'analyse de ces histogrammes ne permet pas de découper sans erreur et précisément les images de façade en 30 cellules. En effet, certaines irrégularités des façades, comme des bords décoratifs ou des lignes décoratives, donnent des histogrammes très ciselés et 2910674 4 très difficiles à analyser. Les histogrammes utilisés sont donc peu robustes aux variations existantes au sein des images de façades. Il est à noter que ces techniques d'analyse d'image sont appliquées à des images de façade, mais elles pourraient être appliquées de manière plus 5 générale à la détection d'éléments unitaires dans des images structurées, c'est-à-dire des images comportant deux directions suivant lesquelles sont rangées des éléments se distinguant d'un fond ou arrière-plan. En effet ces techniques exploitent le fait que dans une image de façade, les éléments de façade sont alignés verticalement et horizontalement par rapport aux axes de 10 la façade sur une image de fond. De même, si une des applications de l'invention est l'analyse d'images de façades de bâtiments, pour en extraire les éléments tels que fenêtres, portes et balcons afin de construire les modèles procéduraux de façades associés, l'invention est également applicable à toute image structurée 15 contenant des éléments alignés suivant deux axes. La présente invention a pour but de résoudre les inconvénients de la technique antérieure en fournissant un procédé et un dispositif d'analyse d'image structurée, ainsi qu'un procédé et un système de modélisation d'image de façade. 20 A cette fin, l'invention propose un procédé d'analyse d'une image structurée contenant des éléments unitaires à détecter, alignés suivant deux directions horizontale et verticale, comportant les étapes de: Détection de contours et obtention d'une image de contours, Calcul d'un histogramme selon une direction verticale ou 25 horizontale, représentatif de ladite image de contours, appelé respectivement histogramme de contours verticaux ou histogramme de contours horizontaux, ledit procédé étant caractérisé en ce qu'il comporte les étapes supplémentaires de: 30 - Calcul d'une image d'appartenance au fond à partir de ladite image structurée, 2910674 5 Calcul d'un histogramme selon une direction verticale ou horizontale, représentatif de ladite image d'appartenance au fond, appelé respectivement histogramme de fond vertical ou histogramme de fond horizontal, 5 Fusion dudit histogramme de fond vertical ou horizontal avec respectivement ledit histogramme de contours verticaux ou ledit histogramme de contours horizontaux, en un histogramme appelé respectivement histogramme de fenêtre vertical ou histogramme de fenêtre horizontal. 10 Grâce à l'invention, on analyse automatiquement une image structurée de manière robuste et performante. En effet l'invention fusionne plusieurs types d'histogrammes fortement corrélés, ceux obtenus à partir d'une image de contours, et ceux obtenus à partir d'une image d'appartenance au fond, pour obtenir des histogrammes dits "de fenêtre" qui sont faciles à analyser. 15 Autrement dit l'utilisation conjointe de l'information de couleur de fond de l'image et des informations de contours rend l'analyse d'image plus robuste. Ces histogrammes permettent ensuite de découper une image structurée en cellules qui contiennent chacune un élément à détecter, de manière rapide, précise et efficace par rapport à l'art antérieur. Ce découpage en cellules est 20 une étape préliminaire à la détection plus fine des éléments isolés dans chaque cellule, puis à la modélisation "procédurale" de l'image structurée lorsque celle-ci est une image de façade. De plus pour effectuer l'analyse d'une façade, l'invention nécessite une seule image photographique de celle-ci. 25 Selon une caractéristique préférée, dans l'étape de fusion l'histogramme de fond vertical ou horizontal est multiplié respectivement par l'histogramme de contours verticaux ou horizontaux. La fusion d'un histogramme de contours avec un histogramme de fond est réalisable de plusieurs manières, par exemple par combinaison linéaire ou 30 par multiplication. Les résultats les meilleurs en termes d'efficacité et de 2910674 6 robustesse ont été obtenus par la multiplication de ces deux types d'histogrammes. Selon une caractéristique préférée, le procédé d'analyse d'une image structurée selon l'invention comporte en outre une étape de détection de 5 changement de couleur vertical ou horizontal, permettant de séparer respectivement l'histogramme de fenêtre vertical ou l'histogramme de fenêtre horizontal en deux sous-histogrammes chacun représentatif d'une couleur de ladite image structurée. Cette étape supplémentaire effectuée avant l'analyse des histogrammes 10 de fenêtre pour le découpage en cellules, permet de scinder un histogramme de fenêtre aux endroits où se trouvent des perturbations dues à des changements de couleur de l'image. On obtient ainsi des sous-histogrammes dans lesquels ces perturbations ne sont pas gênantes lorsqu'on analyse ces sous-histogrammes séparément. Les rez-de-chaussée des bâtiments ayant 15 souvent une couleur de façade différente de celle des étages supérieurs, cette étape est intéressante pour séparer une image de façade à analyser en deux sous-images à analyser séparément, l'une contenant le rez-de-chaussée et l'autre les étages supérieurs. Selon une caractéristique préférée, les histogrammes de contours 20 verticaux ou horizontaux sont obtenus après un filtrage respectivement horizontal ou vertical de ladite image de contours. Cette étape supplémentaire de filtrage permet de rendre les histogrammes de contours verticaux ou horizontaux plus caractéristiques des éléments unitaires à détecter, lorsque ces éléments unitaires sont composés 25 de lignes verticales ou horizontales, comme par exemple des fenêtres. Selon une caractéristique préférée, l'étape de détection de changement de couleur vertical comporte les étapes de: - Transformation de Hough d'une image des luminances de ladite image structurée, 2910674 7 Calcul d'un histogramme selon une direction verticale, représentatif de l'image résultante de ladite transformation, appelé histogramme de Hough vertical, Calcul d'un histogramme appelé histogramme de rez-de- 5 chaussée par combinaison linéaire dudit histogramme de fond vertical, dudit histogramme de Hough vertical, dudit histogramme de contours verticaux, et d'un histogramme selon une direction verticale représentatif de ladite image de contours filtrée verticalement. 10 L'histogramme de rez-de-chaussée obtenu par ces sous-étapes comporte un pic correspondant à l'endroit du changement de couleur dans l'image structurée, ce qui permet de détecter ce changement. L'utilisation d'un tel histogramme est plus robuste qu'une étude classique des variations de couleurs sur l'image, car on associe l'utilisation d'informations colorimétriques 15 et d'informations sur la présence ou l'absence de lignes horizontales sur l'image. Selon une caractéristique préférée, l'étape de calcul dudit histogramme de rez-de-chaussée utilise la formule suivante: HRDC(Y)=3.HFY(Y)+2.Hvy(Y)+HTH(y)ûHHY(y) 20 où HRDC(y) est la valeur dudit histogramme de rez-de-chaussée en une variable y de ligne de ladite image, HFY(y) est la valeur dudit histogramme de fond vertical en ladite variable y, 25 Hvy (y) est la valeur dudit histogramme représentatif de ladite image de contours filtrée verticalement, selon une direction verticale, en ladite variable y, HTH(y) est la valeur dudit histogramme de Hough vertical en ladite variable y, 2910674 8 - et HHY (y) est la valeur dudit histogramme de contours verticaux en ladite variable y. Cette combinaison linéaire de différents histogrammes obtenus à partir de l'image structurée permet de maximiser la valeur du pic de l'histogramme 5 de fenêtre correspondant au changement de couleur à détecter, par rapport aux valeurs des autres pics de l'histogramme. Selon une autre caractéristique, on calcule à la fois un histogramme de fenêtre horizontal et un histogramme de fenêtre vertical, et le procédé d'analyse selon l'invention comporte les étapes supplémentaires de: 10 segmentation de ladite image structurée en cellules comportant chacune un desdits éléments unitaires de ladite image structurée, par analyse desdits histogrammes de fenêtre horizontal et vertical, détection desdits éléments unitaires par utilisation d'un processus de croissance de régions rectangulaires utilisant ladite image 15 d'appartenance au fond et ladite image de contours. L'utilisation conjointe de l'image d'appartenance au fond et de l'image de contours lors de la détection des éléments unitaires améliore l'efficacité de cette détection, préalablement par exemple à une modélisation procédurale de façade. 20 Selon une caractéristique préférée, l'étape de segmentation en cellules utilise un filtrage fréquentiel d'au moins un desdits histogrammes de fenêtre horizontal et vertical. Ce filtrage fréquentiel facilite le découpage en cellules car il lisse les histogrammes, ce qui permet d'utiliser des seuils de segmentation sans 25 nécessiter d'analyse complexe. L'invention concerne aussi un procédé de modélisation d'une image structurée comportant les étapes de: - transformation perspective inverse de ladite image structurée, - analyse selon l'invention de ladite image structurée ainsi transformée, 2910674 9 classification des éléments de ladite image structurée, détectés à l'issue de ladite analyse, et des textures de fond de ladite image structurée, à partir d'un catalogue d'éléments unitaires et de textures de fond, modélisation de ladite image structurée à partir dudit catalogue. 5 Dans le cas de l'analyse d'une image de façade, les éléments unitaires à détecter sont des éléments de façade tels que des portes, des balcons ou des fenêtres. L'image de façade est décomposée, dans cette modélisation, en éléments de façade superposés à une image de texture de fond qui caractérise son revêtement. 10 Ce procédé de modélisation permet d'obtenir des modèles procéduraux de façade, qui servent à reconstruire une image texture de façade visuellement proche de la façade réelle. Grâce à l'invention cette obtention de modèles est automatique, efficace, et ne nécessite qu'une photographie par façade de bâtiment. Seuls les éléments de façades les plus caractéristiques 15 des façades à modéliser sont retenus dans le catalogue d'éléments de façade et de textures de fond. La visualisation sur un navigateur distant de modèles en deux ou trois dimensions de bâtiments fidèles à la réalité, avec des façades texturées de haute résolution, est ainsi possible. L'invention concerne également un dispositif mettant en oeuvre le 20 procédé d'analyse d'une image structurée selon l'invention, ou le procédé de modélisation d'une image structurée selon l'invention. L'invention concerne encore un système de modélisation d'image structurée comportant: des moyens d'analyse d'image structurée mettant en oeuvre le procédé 25 d'analyse d'une image structurée selon l'invention, et des moyens de classification d'éléments unitaires et de textures de fond. L'invention concerne également un signal représentatif de données de visibilité, transportant un modèle d'image structurée obtenu par analyse d'une 30 image structurée contenant des éléments unitaires alignés suivant deux directions horizontale et verticale, ladite analyse ayant donné lieu à l'obtention 2910674 10 d'une image de contours et d'histogrammes de contours horizontaux et verticaux, représentatifs de ladite image de contours selon une direction respectivement horizontale et verticale, ledit signal étant caractérisé en ce qu'une image d'appartenance au fond ayant été calculée à partir de ladite 5 image structurée, et des histogrammes dits de fond vertical et horizontal représentatifs de ladite image d'appartenance au fond selon une direction respectivement verticale et horizontale ayant été calculés, ladite analyse utilise une fusion dudit histogramme de fond vertical avec ledit histogramme de contours verticaux et dudit histogramme de fond horizontal avec ledit 10 histogramme de contours horizontaux. L'invention concerne enfin un programme d'ordinateur comportant des instructions pour mettre en oeuvre l'un des procédés selon l'invention, lorsqu'il est exécuté sur un ordinateur. Le dispositif, le système de modélisation, le signal et le programme 15 d'ordinateur présentent des avantages analogues à ceux des procédés. D'autres caractéristiques et avantages apparaîtront à la lecture d'un mode de réalisation préféré décrit en référence aux figures dans lesquelles : 20 - la figure 1 représente différentes étapes du procédé de modélisation d'image de façade selon l'invention, tel que décrit dans ce mode de réalisation, - la figure 2 représente des traitements opérés sur une image "perspective" de façade, c'est-à-dire prise depuis la rue de manière non orthogonale au plan de l'image, 25 - la figure 3 représente différentes étapes du procédé d'analyse d'image selon l'invention, - la figure 4 représente l'obtention d'histogrammes de contours à partir d'une image de contours, - la figure 5 représente des étapes d'une étape du procédé d'analyse d'image 30 selon l'invention, 2910674 11 - la figure 6 représente le filtrage fréquentiel d'un histogramme de fenêtre obtenu par le procédé d'analyse d'image selon l'invention, - la figure 7 représente une analyse de la périodicité d'un histogramme de fenêtre horizontal obtenu par le procédé d'analyse d'image selon l'invention, 5 -la figure 8 représente un mode de réalisation du système de modélisation d'image de façade selon l'invention. Selon un mode préféré de réalisation de l'invention, le procédé d'analyse d'image structurée selon l'invention est utilisé pour analyser des 10 images de façade, et est intégré dans le procédé de modélisation d'image de façade selon l'invention. Cependant ce mode de réalisation est facilement adaptable à l'analyse d'images structurées autres que des images de façade, les principes de l'invention restants inchangés. Le procédé de modélisation d'image de façade est représenté à la figure 1 sous la forme d'un 15 organigramme comportant sept étapes El à E7, les étapes E2 à E5 faisant partie du procédé d'analyse d'image selon l'invention. La première étape El du procédé de modélisation est la transformation perspective inverse d'une image de façade IP à analyser, représentée à la 20 figure 2. Cette étape est nécessaire car l'image de façade IP est classiquement acquise par un système de prise de vue photographique à partir de la rue. La façade représentée sur l'image IP est alors déformée suivant des transformations perspectives, et contient des éléments étrangers à la façade, telle que des bouts de trottoir. Il faut donc recadrer l'image IP sur les bords de 25 la façade et redresser celle-ci, afin d'obtenir une image orthographique de façade 10. L'image 10 initialement en couleur est transformée en image en niveaux de gris. Pour une bonne performance du procédé de modélisation selon l'invention, cette image 10 doit être de bonne résolution mais pas trop grande afin de limiter les temps de calculs nécessaires à l'analyse de l'image. 30 Dans ce mode de réalisation elle est par exemple de résolution 700*500 pixels. 2910674 12 Cette étape El est supervisée et requière la sélection manuelle des quatre coins de la façade. La position des quatre points au sein de l'image et l'hypothèse que la façade est plane, permettent de calculer les paramètres de transformation perspective subits par la façade et d'appliquer la transformation 5 inverse pour récupérer l'image redressée 10. En variante cette étape est effectuée automatiquement, dès lors que l'on connaît la position exacte de la prise de vue correspondant à l'image IP, les paramètres de l'appareil de prise de vue et les dimensions de la façade représentée sur l'image IP. 10 La seconde étape E2 est la création d'histogrammes dits "de fenêtre", à partir de l'image 10 obtenue à l'étape El. Ces histogrammes sont caractéristiques des positions des fenêtres ou d'autres éléments alignés sur l'image de façade 10. Leur analyse, décrite plus loin à l'étape E4, permet donc de segmenter l'image 10 en cellules ne contenant chacune qu'un seul élément 15 de façade. Cette étape E2 du procédé de modélisation selon l'invention se décompose en étapes al à a6 représentées à la figure 3. La première étape al est une détection de contours sur l'image de façade 10, permettant d'obtenir une image IC de contours, représentée à la 20 figure 4. Des exemples de méthodes permettant d'extraire les contours d'une image sont donnés dans les articles suivants: - "Image Field Categorization and Edge/Corner Detection from Gradient Covariance", de S. Ando, publié en 2000 dans le magazine "Institute of Electrical and Electronics Engineers (IEEE) Transactions on Pattern 25 Analysis Machine Intelligence", - et "Edge Detection with Embedded Confidence", de P. Meer and B. Georgescu, publié en 2001 dans le même magazine. La deuxième étape a2 est un filtrage directionnel de cette image de contours IC: 2910674 13 - l'image IC filtrée verticalement donne une image de contours filtrée verticalement IFV, représentée à la figure 4, débarrassée de traits verticaux, - et l'image IC filtrée horizontalement donne une image de 5 contours filtrée horizontalement IFH, débarrassée de traits horizontaux. La troisième étape a3 est le calcul d'histogrammes de contours à partir des images de contours filtrées IFV et IFH. Les valeurs des pixels de ces images sont sommées ligne par ligne pour donner des histogrammes selon 10 une direction verticale, et colonne par colonne pour donner des histogrammes selon une direction horizontale. On obtient donc quatre histogrammes: un histogramme de contours horizontaux HVX, obtenu par sommation colonne par colonne des pixels de l'image filtrée IFV, qui caractérise la façade en ayant de fortes valeurs dans les 15 zones de l'image contenant des éléments de façade, et des creux dans les zones inter-éléments, un histogramme de contours HHX, obtenu par sommation colonne par colonne des pixels de l'image filtrée IFH, qui possède des pics dans les zones de bords verticaux des 20 éléments de façade, ou dans les zones de lignes verticales sur la façade, un histogramme de contours verticaux HHY, obtenu par sommation ligne par ligne des pixels de l'image filtrée horizontalement IFH, qui caractérise la façade en ayant de fortes 25 valeurs dans les zones de l'image contenant des éléments de façade, et des creux dans les zones inter-éléments, et un histogramme de contours HVY, représentatif de l'image de contours filtrée verticalement IFV, obtenu par sommation ligne par ligne des pixels de l'image filtrée IFV, et qui possède des pics 30 dans les zones de bords horizontaux des éléments de façade, ou dans les zones de lignes horizontales sur la façade. 2910674 14 Seuls les histogrammes de contours horizontaux HVX et verticaux HHY sont utilisés pour le calcul des histogrammes de fenêtre dans cette étape E2, les autres histogrammes étant utilisés pour la détection d'un changement de couleur sur la façade à l'étape E3. 5 La quatrième étape a4 est le calcul d'une image d'appartenance au fond IAF, représentée à la figure 2. Chaque pixel de cette image représente la distance, codée en niveaux de gris, entre la couleur moyenne du fond de l'image de façade 10, et le pixel correspondant de l'image de façade 10. Cette distance est définie comme une différence de valeurs de niveaux de gris. Ainsi 10 plus les zones de l'image de façade 10 sont proches de la couleur moyenne du fond, plus elles apparaissent noires sur l'image d'appartenance au fond IAF, car plus la distance des pixels correspondants avec la couleur moyenne du fond est petite. Pour caractériser la couleur moyenne du fond, l'algorithme "Largest 15 Empty Rectangle", décrit dans l'article "Automatic Techniques for Texture Mapping in Virtual Urban Environments", de R. G. Laycock et A. M. Day, publié en 2004 à l'occasion d'une conférence internationale "Computer Graphics International", ou encore dans l'article "Computing the largest empty rectangle Source", de B. Chazelle, R. L. Drysdale et D. T. Lee, publié en 1986 20 dans le magazine "Society for Industrial and Applied Mathematics (SIAM) Journal on Computing ", est utilisé. Pour un ensemble de points aléatoirement répartis sur l'image, cet algorithme recherche des zones rectangles de couleurs uniformes. Ces régions permettent d'analyser les couleurs uniformément réparties dans l'image et de détecter la couleur moyenne du 25 fond. Il est à noter que l'algorithme de "Largest Empty Rectange" est appliqué sur l'image de façade 10 initiale en couleurs, transposée dans le système de codage L*a*b* créé par la Commission Internationale de l'Eclairage (CIE). Les distances calculées entre la couleur moyenne du fond de l'image de façade 10, 30 et le pixel correspondant de l'image de façade 10 sont des distances exprimées dans le système de codage L*a*b*, car ce système de codage 2910674 15 couleur permet de coder une distance entre couleurs cohérente avec les distances perçues par l'ceil humain. La cinquième étape a5 est le calcul d'histogrammes dits "de fond" représentatifs de l'image d'appartenance au fond IAF selon les directions 5 verticale et horizontale: l'histogramme de fond vertical HFY, représenté à la figure 2, est obtenu par sommation ligne par ligne des valeurs des pixels de l'image d'appartenance au fond IAF, et l'histogramme de fond horizontal HFX est obtenu par sommation 10 colonne par colonne des valeurs des pixels de l'image d'appartenance au fond IAF. Ces histogrammes de fond caractérisent l'adéquation d'une ligneou d'une colonne de pixels avec la couleur de fond de la façade: ils contiennent de fortes valeurs sur les zones de l'image contenant des éléments de façade, et 15 de faibles valeurs sur les zones inter-éléments. La sixième étape a6 est la fusion des histogrammes de contours verticaux et horizontaux précédemment calculés, avec les histogrammes de fond respectivement vertical et horizontal. Ces quatre histogrammes sont relativement corrélés, ce qui permet de les fusionner pour sommer 20 l'information et augmenter la robustesse de l'analyse de l'image de façade 10. La grande diversité des images de façades requière en effet de prévoir une méthode de segmentation en cellules robuste pour garantir un fort taux de résultats corrects. On obtient alors deux histogrammes dits "de fenêtre", l'un vertical et l'autre horizontal, définis par les formules: HFenêtre (y) ù HFY (Y) . HHY (Y) H Fenêtre (x) ù HFX (x) HVX (x) y est une variable désignant une ligne de pixels de l'image de façade 10, 25 où 2910674 16 - x est une variable désignant une colonne de pixels de l'image de façade 10, - HFenêtre (y) est la valeur de l'histogramme de fenêtre vertical en la ligne de pixels y, 5 - HFenêtre(x) est la valeur de l'histogramme de fenêtre horizontal en la colonne de pixels x, - HFY(y) est la valeur de l'histogramme de fond vertical HFY en la ligne de pixels y, - HFX (x) est la valeur de l'histogramme de fond horizontal HFX en la 10 colonne de pixels x, - HHY (y) est la valeur de l'histogramme de contours verticaux HHY en la ligne de pixels y, - et HvX (x) est la valeur de l'histogramme de contours horizontaux HVX en la colonne de pixels x. 15 11 est à noter que dans ce mode de réalisation on multiplie les valeurs des histogrammes entre elles, mais d'autres modes de fusion sont utilisables, par exemple en utilisant des sommes pondérées. Ces histogrammes de fenêtre seront ensuite utilisés lors de l'étape E4 de segmentation de l'image de façade 10 en cellules, car ils contiennent des 20 pics sur les zones représentant des éléments de façade et des vallées dans les zones inter-éléments. La troisième étape E3 du procédé de modélisation selon l'invention est la détection d'un changement de couleur sur l'image de façade 10. En effet les 25 histogrammes de fenêtre obtenus à l'étape E2 sont perturbés aux niveaux de changements de couleur sur la façade. Dans ce mode de réalisation de l'invention, on détecte seulement un changement de couleur suivant une direction verticale, car les bâtiments présentent très souvent des rez-de-chaussée revêtus d'une couleur différente de celle des étages supérieurs. 30 Cependant il est aisé d'adapter ce mode de réalisation à la détection d'un 2910674 17 changement de couleur suivant une direction horizontale, ou à plusieurs changements de couleur. Cette étape E3 se décompose en quatre étapes b1 à b4 représentées à la figure 5. L'étape b1 est une transformation de Hough d'une image des 5 luminances IL obtenue à partir de l'image de façade 10 initiale en couleur, et représentée sur la figure 2. L'image des luminances IL est calculée en changeant l'espace couleur de l'image 10. Les pixels de l'image 10 sont représentés initialement dans le système de codage couleur Rouge/Vert/Bleu RGB d'après l'anglais "Red Green Blue", par des triplés représentant les 10 valeurs de ces trois composantes. Ces couleurs codées dans le système RGB sont transformées en couleurs codées dans le système de codage CIE L*a*b*. Les composantes a* et b* représentent le plan de chrominance alors que l'axe L* représente les variations de Luminance. L'image des luminances IL est obtenue en ne gardant que la composante L* des couleurs L*a*b* ainsi 15 calculées à partir de l'image 10 couleur initiale. Il est à noter que l'espace couleur CIE L*a*b* est utilisé dans l'invention pour calculer des distances entre couleurs et en particulier lors des algorithmes de "Largest Empty Rectange" lors de la détection de la couleur de fond et lors de la construction des histogrammes de Fond. 20 La transformée de Hough de l'image des luminances IL est effectuée suivant une méthode connue décrite dans le brevet US3069654 de P.V.C. Hough, intitulé "Method and Means for Recognizing Complex Patterns". Cette transformée permet de détecter la présence de lignes au sein d'un signal bidimensionnel. L'image ITH résultante de cette transformée contient des 25 lignes beaucoup plus marquées que celles présentes sur l'image de contours IC. L'étape b2 est le calcul d'un histogramme HTH dit "de Hough", selon une direction verticale de l'image résultante ITH. Cet histogramme est obtenu par sommation des valeurs des pixels de l'image ITH ligne par ligne. Il 30 possède des pics très marqués au niveau de lignes horizontales sur l'image ITH et des pics moins marqués au niveau des bords horizontaux d'éléments 2910674 18 de façade. Il est à noter que le calcul de l'histogramme de Hough HTH ne nécessite pas la construction complète de l'image de Hough, mais seulement la partie de l'image de Hough correspondant aux lignes verticales et horizontales. 5 L'étape b3 est le calcul d'un histogramme dit "de rez-de-chaussée", obtenu par combinaison linéaire de l'histogramme de contours verticaux HHY, l'histogramme de fond vertical HFY, l'histogramme de Hough vertical HTH et l'histogramme de contours HVY, suivant la formule: HRDc(y)=3•HFY(y)+2•H,(y)+HTH(y)-HHY(y) 10 où y est une variable désignant une ligne de pixels de l'image de façade 10, HRDC(y) est la valeur de l'histogramme de rez-de-chaussée en la variable y, 15 HFY(y) est la valeur de l'histogramme de fond vertical HFY en la variable y, HvY (y) est la valeur de l'histogramme de contours HVY en la variable y, HTH (y) est la valeur de l'histogramme de Hough vertical HTH en la 20 variable y, et HHY (y) est la valeur de l'histogramme de contours verticaux HHY en la variable y. Cet histogramme de rez-de-chaussée a été construit de manière à obtenir un pic sur la frontière entre deux zones de couleurs différentes. En 25 effet: d'une part, on somme les histogrammes qui ont des fortes valeurs sur de telles zones de transitions, c'est-à-dire l'histogramme de contours HVY et l'histogramme de Hough HTH, car ils détectent les lignes horizontales, et l'histogramme de fond HFY, car il a de fortes valeurs 30 sur la zone de rez-de-chaussée, 2910674 19 et d'autre part on soustrait l'histogramme de contours verticaux HHY car il doit être nul sur les zones de transitions, ce qui a pour effet d'atténuer les autres pics de l'histogramme de fenêtre. De manière similaire, si l'on souhaite détecter un changement de 5 couleur suivant une direction horizontale, il suffit d'effectuer la combinaison linéaire symétrique de celle-ci, avec l'histogramme de contours horizontaux HVX, l'histogramme de fond horizontal HFX, un histogramme représentatif de l'image résultante ITH de la transformée de Hough suivant une direction horizontale, et l'histogramme de contours HHX. 10 L'étape b4 est la détection du pic marquant la frontière entre le rez-de-chaussée et les étages de la façade de l'image 10, sur l'histogramme de rez-de-chaussée précédemment calculé. On cherche pour cela un maximum dans la moitié inférieure de l'histogramme. En effet, ne pouvant faire d'hypothèse sur le nombre d'étages dans la façade, on suppose simplement qu'il y a au 15 moins deux niveaux dans le bâtiment. La limite entre le rez-de-chaussée et le ou les étages se situe donc dans la moitié inférieure de l'image de façade 10. On parcourt donc l'histogramme de rez-de-chaussée et, on cherche, sur tous les maxima de sa moitié inférieure, le pic de plus grande amplitude vérifiant les critères suivants: 20 HRDC(i)>2/3, N Fenetre U) ù ~j H Fenetre U) iù20 i+20 et H Fenetre Ci 0.8 H Fenetre Ci) i=i i=i où i est une variable de ligne de pixels de l'image de façade 10 25 correspondant à un pic sur la moitié inférieure de l'histogramme de rez-de-chaussée, j=0 1 H Fenetre (J) j=0 1 > ù , 2 2910674 20 j est un indice parcourant les N valeurs de l'histogramme de fenêtre vertical de haut en bas par rapport à l'image de façade 10, N est la taille de l'histogramme de fenêtre vertical, HRDC (i) est la valeur de l'histogramme de l'histogramme de rez-de- 5 chaussée en la variable i, et HFenêtre(j) est la valeur de l'histogramme de fenêtre vertical en la variable j. On détermine ainsi la ligne de l'image de façade 10 correspondant au pic de rez-de-chaussée. Ce critère supplémentaire de sélection des maxima de 10 l'histogramme de rez-de-chaussée permet de supprimer les pics n'étant pas sur des zones de variations de la couleur moyenne du fond. La quatrième étape E4 du procédé de modélisation selon l'invention est la segmentation en cellules de l'image de façade 10. Pour cela, on analyse les 15 histogrammes de fenêtre obtenus à l'étape E2. L'histogramme de fenêtre vertical est séparé en deux sous-histogrammes correspondant à deux sous-images de l'image de façade 10, l'une contenant le rez-de-chaussée du bâtiment dont on analyse la façade, et l'autre contenant les étages supérieurs. Cette séparation utilise l'étape de détection E3 précédente, qui fournit la ligne 20 de séparation de l'histogramme de fenêtre vertical. Elle permet de s'affranchir des perturbations sur l'histogramme de fenêtre vertical, dues au changement de couleur sur l'image de façade 10. Comme indiqué plus haut, les histogrammes de fenêtre présentent des "vallées" dans les zones inter-éléments. L'analyse des minima du sous- 25 histogramme de fenêtre vertical représentatif des étages, permet donc de déterminer les limites entre étages. De même l'analyse des minima de l'histogramme de fenêtre horizontal permet de déterminer les limites entre éléments de façade. 2910674 21 Pour faciliter la recherche de minima, les hautes fréquences de ces histogrammes sont filtrées sur une base d'ondelettes. Plus précisément les signaux des histogrammes de fenêtre sont décomposés en fréquences sur une base d'ondelettes de Daubechies, et sont filtrés en supprimant les hautes 5 fréquences. Cela permet de lisser les histogrammes, comme le montre par exemple le diagramme de la figure 6, ayant en abscisses l'axe AX1 de lignes de pixels et en ordonnées l'axe AY1 de valeurs du sous-histogramme de fenêtre vertical représentatif des étages : Le signal non filtré SO de ce sous-histogramme présente de nombreux pics dus à des irrégularités des éléments 10 de façade, tandis que le signal filtré SF1 correspondant ne présente que quelques minima et maxima restants à analyser. L'histogramme de fenêtre horizontal étant généralement plus sensible aux bruits et aux perturbations de l'image que l'histogramme de fenêtre 15 vertical, l'histogramme de fenêtre horizontal subit dans cette étape E4, en plus de ce filtrage fréquentiel, un processus de temporisation périodique. Ce processus analyse la périodicité de l'histogramme de fenêtre horizontal par une étude de la covariance et le cas échant applique un ensemble de gaussiennes centrés sur les minimums des courbes répondant au critère de 20 périodicité. Le diagramme de la figure 7, ayant en abscisses l'axe AX2 de lignes de pixels et en ordonnées l'axe AY2 de valeurs de l'histogramme de fenêtre horizontal montre le signal filtré en fréquences SF2 de cet histogramme, une gaussienne SG appliquée à ce signal filtré SF2, et l'histogramme résultant de cette application SR. 25 Le signal filtré SF1 du sous-histogramme de fenêtre vertical et le signal résultant SR de l'histogramme de fenêtre horizontal sont ensuite analysés. Pour cela, les espaces des distributions des valeurs de ces signaux sont partitionnés, et des seuils sont fixés dynamiquement sur ces signaux à partir des partitions créées. Plus précisément ces partitions sont classées en quatre 30 groupes par un algorithme de K-Mean, qui fixe dynamiquement trois seuils. Ainsi sur l'exemple de la figure 6, les valeurs du signal filtré SF1 sont réparties 2910674 22 dans quatre intervalles en fonction de leurs positions par rapport à trois seuils S1, S2 et S3. Ces seuils permettent de classer les minima des signaux pour ne garder que les minima globaux: on ne garde que les minima inférieurs au seuil le plus bas et on fusionne deux minima s'ils ne sont pas séparés d'un 5 maximum supérieur au seuil médian. Cela  The present invention generally relates to the fields of image analysis and rendering, and more specifically to the visualization of two or three dimensional urban scenes made up of a large number of images. buildings.  One of the applications of the invention is in fact the analysis of real images of building facades in order to model them and then allow an approximate but rapid reconstruction of these images during a navigation in a virtual environment.  Currently, existing geographic information systems are able to model buildings over a large area and offer fluid navigation interfaces that make it easy to understand an urban environment in two or three dimensions.  In order to make the urban environment realistic, for example to virtually visit Paris on a terminal, it is necessary that the textures displayed on each building are similar to real facades and correct resolutions.  However, the data of such environments are generally stored on a remote server, so it is not possible to send the actual images of the facades of each building to the terminal as and when the visit, because the amount of information to to transmit would be too important.  To overcome this problem, current systems propose to display generic texture images by repeating them several times within the virtual urban environment.  This allows a small amount of information to be sent, but results in a significant decrease in overall navigation quality because the textures displayed are not visually close to the actual buildings.  In order to more granularly reconstruct building facades, modeling languages for defining facade elements, such as windows or balconies, regardless of background texture, have been proposed in various works.  Thus the article "Modeling urban scenes for LBMS" of A.  F.  Coelho, A.  AT.  of Sousa and F.  NOT.  Ferreira, published in 2005 on the occasion of the tenth international conference "3D Web Technology", proposes an XML grammar, according to the English "eXtensible 5 Markup Language", which allows to describe completely large urban environments in three dimensions , and from these descriptions to rebuild buildings.  The cities are thus modeled with many details.  Similarly, to provide both a realistic urban environment navigation, good resolution and an acceptable amount of transferable data, it has been proposed within the "Motion Picture Expert Group 4" (MPEG4) standard, in its part "Animation Framework eXtension", to characterize the facade of a building, not by a single texture image, but by "procedural models of facades".  These contain facade reconstruction information from a number of facade element models, such as windows, doors, balconies, and background textures, which are stored in a window. a catalog.  These models make it possible to recreate facade images visually close to the original facades, of any size, by transmitting a small amount of information to the terminal.  These visualization techniques of scenes are however limited because they require the intervention of an operator to manually model the buildings and the facades, which is very expensive when the environment to be modeled is of urban dimension in particular.  As a result, facade image analysis to automatically fill procedural models of facades has become an important issue in the field of image analysis.  However, there are few methods to automatically analyze such images.  Given the diversity of facade architectures, types of exterior cladding and types of facade elements, one of the main difficulties to overcome is in particular to isolate the facade elements in a façade image.  K. Schindler and J. Bauer, in his article "A model-based method for building reconstruction", published in 2003 at a "Higher-Level 5 Knowledge in 3D Modeling and Motion" workshop of a conference "International Conference on Computer Vision ( ICCV) ", presents a facade analysis method, in which the windows of a facade to be analyzed are detected by a scanning algorithm based on the non-incident point density of the façade plane.  This method thus detects the windows as being objects behind the plane of the facade, but requires several starting images of the facade, and their combination according to the parameters of the taking of images, which is complex and impractical to implement. artwork.  Similarly the article by H.  Mayer and S.  Reznik, entitled "Building Facade Interpretation from Image Sequences", and published in the archives of the International Society for Photogrammetry and Remote Sensing (ISPRS), uses a method based on that of K. Schindler and J. Bauer to insulate the windows of a facade before positioning them and to detect them more finely on the plane of the facade.  This method therefore has the same disadvantages as the previous method, in terms of complexity and implementation.  A different method of facade image analysis is developed in the article "Extraction and Integration of Window in a 3D Building Model from Ground View Image", by S.  C.  Lee and R.  Nevatia, published at the 2004 ICCV conference.  This method makes it possible to isolate facade elements of a facade from a single photographic image taken from the street.  This method analyzes histograms of vertical and horizontal contours of the facade image, to cut the image into cells each containing a facade element.  However the analysis of these histograms does not allow to cut without error and precisely the facade images in 30 cells.  Indeed, some irregularities of the facades, such as decorative edges or decorative lines, give highly chiseled histograms and very difficult to analyze.  The histograms used are therefore not very robust to the variations existing in the images of facades.  It should be noted that these image analysis techniques are applied to facade images, but they could be more generally applied to the detection of unit elements in structured images, i.e. images having two directions in which are arranged elements distinguished from a background or background.  Indeed these techniques exploit the fact that in a facade image, the facade elements are aligned vertically and horizontally with respect to the axes of the facade on a background image.  Similarly, if one of the applications of the invention is the analysis of images of building facades, to extract elements such as windows, doors and balconies to build the procedural models of associated facades, the invention is also applicable to any structured image containing elements aligned along two axes.  It is an object of the present invention to overcome the disadvantages of the prior art by providing a structured image analysis method and apparatus, as well as a facade image modeling method and system.  To this end, the invention proposes a method for analyzing a structured image containing unitary elements to be detected, aligned in two horizontal and vertical directions, comprising the steps of: Detecting contours and obtaining an outline image , Calculation of a histogram in a vertical or horizontal direction, representative of said contour image, called vertical contour histogram or histogram of horizontal contours, said method being characterized in that it comprises the further steps of: Computation of a background image from said structured image, 2910674 5 Calculation of a histogram in a vertical or horizontal direction, representative of said background image, respectively called vertical background histogram or histogram of horizontal background, 5 Fusion of said vertical or horizontal background histogram with said contour histogram respectively vertical or histogram of horizontal contours, in a histogram respectively called vertical window histogram or horizontal window histogram.  Thanks to the invention, one automatically analyzes a structured image in a robust and efficient manner.  Indeed, the invention merges several types of highly correlated histograms, those obtained from a contour image, and those obtained from a background image, to obtain so-called "window" histograms. are easy to analyze.  In other words, the joint use of the background color information of the image and the contour information makes the image analysis more robust.  These histograms then make it possible to cut a structured image into cells, each of which contains an element to be detected, in a fast, precise and efficient manner with respect to the prior art.  This cell division is a preliminary step to the finer detection of the isolated elements in each cell, then to the "procedural" modeling of the structured image when it is a facade image.  In addition to performing the analysis of a facade, the invention requires a single photographic image thereof.  According to a preferred characteristic, in the melting step the vertical or horizontal background histogram is respectively multiplied by the histogram of vertical or horizontal contours.  The fusion of a contour histogram with a background histogram is feasible in several ways, for example by linear combination or by multiplication.  The best results in terms of efficiency and robustness were obtained by multiplying these two types of histograms.  According to a preferred feature, the method of analyzing a structured image according to the invention further comprises a step of detecting a vertical or horizontal color change, making it possible respectively to separate the vertical window histogram or the histogram of horizontal window in two sub-histograms each representative of a color of said structured image.  This additional step, performed prior to the analysis of the window histograms for cell division, makes it possible to split a window histogram at the locations where there are disturbances due to color changes in the image.  Sub-histograms are obtained in which these disturbances are not troublesome when these sub-histograms are analyzed separately.  Since the ground floors of the buildings often have a different façade color than the upper floors, this step is useful for separating a façade image to be analyzed into two sub-images to be analyzed separately, one containing the floor floor and the other the upper floors.  According to a preferred feature, the vertical or horizontal contour histograms are obtained after respectively horizontal or vertical filtering of said contour image.  This additional filtering step makes the histograms of vertical or horizontal contours more characteristic of the unitary elements to be detected, when these unitary elements are composed of vertical or horizontal lines, for example windows.  According to a preferred feature, the vertical color change detection step comprises the steps of: - Hough transforming of an image of the luminances of said structured image, 2910674 7 Calculation of a histogram in a vertical direction, representative of the resulting image of said transformation, called vertical Hough histogram, Calculation of a histogram called ground floor histogram by linear combination of said vertical background histogram, said vertical Hough histogram, said vertical contour histogram, and a histogram in a vertical direction representative of said vertically filtered contour image.  The ground floor histogram obtained by these substeps has a peak corresponding to the location of the color change in the structured image, which makes it possible to detect this change.  The use of such a histogram is more robust than a conventional study of color variations on the image, because the use of colorimetric information and information on the presence or absence of horizontal lines is associated. on the image.  According to a preferred characteristic, the step of calculating said ground floor histogram uses the following formula: HRDC (Y) = 3. HFY (Y) 2. Hvy (Y) + HTH (y) ûHHY (y) where HRDC (y) is the value of said ground floor histogram in line variable y of said image, HFY (y) is the value of said histogram of vertical background in said variable y, Hvy (y) is the value of said histogram representative of said vertically filtered contour image, in a vertical direction, in said variable y, HTH (y) is the value of said vertical Hough histogram in said variable y, 2910674 8 - and HHY (y) is the value of said histogram of vertical contours in said variable y.  This linear combination of different histograms obtained from the structured image maximizes the peak value of the window histogram corresponding to the color change to be detected, relative to the values of the other peaks of the histogram.  According to another feature, both a horizontal window histogram and a vertical window histogram are computed, and the analysis method according to the invention includes the additional steps of: segmenting said structured image into cells each having one of said unitary elements of said structured image, by analyzing said horizontal and vertical window histograms, detecting said unitary elements by using a rectangular region growth process using said background image and said contour image.  The joint use of the image belonging to the background and the contour image during the detection of the unitary elements improves the effectiveness of this detection, prior to for example a procedural facade modeling.  According to a preferred feature, the cell segmentation step uses frequency filtering of at least one of said horizontal and vertical window histograms.  This frequency filtering facilitates the division into cells because it smooths the histograms, which makes it possible to use segmentation thresholds without requiring complex analysis.  The invention also relates to a method for modeling a structured image comprising the steps of: inverse perspective transformation of said structured image, analysis according to the invention of said structured image thus transformed, classification of the elements of said structured image , detected at the end of said analysis, and background textures of said structured image, from a catalog of unitary elements and background textures, modeling said structured image from said catalog.  In the case of the analysis of a facade image, the unitary elements to be detected are facade elements such as doors, balconies or windows.  The façade image is decomposed, in this modeling, into facade elements superimposed on a background texture image that characterizes its coating.  This modeling method makes it possible to obtain procedural facade models, which serve to reconstruct a facade texture image visually close to the actual facade.  Thanks to the invention this obtaining of models is automatic, effective, and requires only one photograph per building facade.  Only the facade elements most characteristic of the façades to be modeled are retained in the catalog of facade elements and background textures.  The visualization on a remote browser of models in two or three dimensions of buildings faithful to reality, with textured facades of high resolution, is possible.  The invention also relates to a device embodying the method of analyzing a structured image according to the invention, or the method of modeling a structured image according to the invention.  The invention also relates to a structured image modeling system comprising: structured image analysis means implementing the method for analyzing a structured image according to the invention, and means for classifying the image; unitary elements and background textures.  The invention also relates to a signal representative of visibility data, carrying a structured image model obtained by analysis of a structured image containing unit elements aligned in two horizontal and vertical directions, said analysis having given rise to obtaining An image of contours and histograms of horizontal and vertical contours, representative of said contour image in a respectively horizontal and vertical direction, said signal being characterized in that a background image having been calculated from said structured image, and so-called vertical and horizontal background histograms representative of said background image in a respectively vertical and horizontal direction having been calculated, said analysis uses a merge of said vertical background histogram with said histogram vertical contours and said horizontal background histogram with said histogram of horizontal contours.  The invention finally relates to a computer program comprising instructions for implementing one of the methods according to the invention, when it is executed on a computer.  The device, the modeling system, the signal and the computer program have advantages similar to those of the methods.  Other features and advantages will appear on reading a preferred embodiment described with reference to the figures in which: FIG. 1 represents various steps of the facade image modeling method according to the invention, as described in this embodiment, FIG. 2 shows processes performed on a "perspective" facade image, that is to say taken from the street in a non-orthogonal manner to the plane of the image, FIG. 3 represents different steps of the image analysis method according to the invention; - FIG. 4 represents the obtaining of contour histograms from a contour image; FIG. 5 represents steps of a step of the FIG. 6 shows the frequency filtering of a window histogram obtained by the image analysis method according to the invention, FIG. analysis of the peri In Fig. 8, an embodiment of the facade image modeling system according to the invention shows the odicity of a horizontal window histogram obtained by the image analysis method according to the invention.  According to a preferred embodiment of the invention, the structured image analysis method according to the invention is used for analyzing façade images, and is integrated in the facade image modeling method according to the invention. invention.  However, this embodiment is easily adaptable to the analysis of structured images other than facade images, the principles of the invention remaining unchanged.  The facade image modeling method is shown in FIG. 1 in the form of a flowchart comprising seven steps E1 to E7, the steps E2 to E5 being part of the image analysis method according to the invention.  The first step E1 of the modeling method is the inverse perspective transformation of an IP facade image to be analyzed, represented in FIG. 2.  This step is necessary because the IP facade image is conventionally acquired by a photographic system from the street.  The facade represented on the IP image is then deformed according to perspective transformations, and contains elements foreign to the facade, such as sidewalk ends.  It is therefore necessary to crop the IP image on the edges of the facade and straighten it, in order to obtain a frontal orthographic image 10.  The initially color image 10 is transformed into a grayscale image.  For a good performance of the modeling method according to the invention, this image must be of good resolution but not too great in order to limit the computation times necessary for the analysis of the image.  In this embodiment it is for example 700 * 500 pixels resolution.  2910674 12 This El step is supervised and requires the manual selection of the four corners of the facade.  The position of the four points within the image and the assumption that the facade is plane, make it possible to calculate the perspective transformation parameters undergone by the facade and to apply the inverse transformation to recover the rectified image 10.  As a variant, this step is performed automatically, since the exact position of the shooting corresponding to the IP image is known, the parameters of the camera and the dimensions of the facade represented on the camera. IP image.  The second step E2 is the creation of so-called "window" histograms, from the image 10 obtained in step E1.  These histograms are characteristic of the positions of the windows or other elements aligned with the facade image 10.  Their analysis, described later in step E4, thus makes it possible to segment the image 10 into cells each containing only one facade element.  This step E2 of the modeling method according to the invention is broken down into steps a1 to a6 represented in FIG.  The first step a1 is a contour detection on the facade image 10, making it possible to obtain an outline image IC, represented in FIG. 4.  Examples of methods for extracting the outlines of an image are given in the following articles: - "Image Field Categorization and Edge / Corner Detection from Gradient Covariance", of S.  Ando, published in 2000 in the magazine "Institute of Electrical and Electronics Engineers (IEEE) Transactions on Pattern Analysis Machine Intelligence", - and "Edge Detection with Embedded Confidence", P.  Meer and B.  Georgescu, published in 2001 in the same magazine.  The second step a2 is a directional filtering of this contour image IC: 2910674 13 - the vertically filtered image IC gives a vertically filtered contour image IFV, represented in FIG. 4, freed from vertical lines, and the image IC Filtered horizontally gives a horizontally filtered image of 5 contours IFH, cleared of horizontal lines.  The third step a3 is the calculation of contour histograms from the IFV and IFH filtered contour images.  The pixel values of these images are summed line by line to give histograms in a vertical direction, and column by column to give histograms in a horizontal direction.  Four histograms are thus obtained: a histogram of HVX horizontal contours, obtained by column-by-column summation of the pixels of the IFV filtered image, which characterizes the facade by having high values in the 15 zones of the image containing facade elements. , and hollows in the inter-element areas, an HHX contour histogram, obtained by column-by-column summation of the pixels of the IFH filtered image, which has peaks in the vertical edge areas of the facade elements, or in the areas of vertical lines on the facade, a histogram of vertical contours HHY, obtained by row-by-line summation of the pixels of the horizontally filtered image IFH, which characterizes the facade by having strong values in the zones of the image containing facade elements, and hollows in the inter-element zones, and an HVY contour histogram, representative of the vertically filtered contour image IFV, obtained by line summation per pixel line of the IFV filtered image, and which has peaks 30 in the horizontal edge areas of the facade elements, or in the horizontal line areas on the facade.  Only histograms of HVX horizontal contours and vertical HHY are used for calculating the window histograms in this step E2, the other histograms being used for the detection of a color change on the facade in step E3.  The fourth step a4 is the calculation of a membership image of the background IAF, shown in FIG.  Each pixel of this image represents the distance, coded in gray scale, between the average color of the background of the facade image 10, and the corresponding pixel of the facade image 10.  This distance is defined as a difference in gray level values.  Thus, the more the zones of the facade image 10 are close to the average background color, the more black they appear on the IAF background image, since the distance between the corresponding pixels and the average background color is small.  To characterize the average background color, the "Largest 15 Empty Rectangle" algorithm, described in the article "Automatic Techniques for Texture Mapping in Virtual Urban Environments", by R.  G.  Laycock and A.  Mr.  Day, published in 2004 at an international conference "Computer Graphics International", or in the article "Computing the largest empty rectangle Source" by B.  Chazelle, R.  L.  Drysdale and D.  T.  Lee, published in 1986 in the 20 "Society for Industrial and Applied Mathematics (SIAM) Journal on Computing," is used.  For a set of randomly distributed points on the image, this algorithm looks for rectangles of uniform colors.  These regions make it possible to analyze the uniformly distributed colors in the image and to detect the average background color.  It should be noted that the "Largest Empty Rectange" algorithm is applied to the initial color facade image 10, transposed into the L * a * b * coding system created by the International Commission on Illumination (CIE). ).  The distances calculated between the average background color of the facade image 10, 30 and the corresponding pixel of the facade image 10 are distances expressed in the coding system L * a * b *, because this coding system The color allows to code a distance between colors consistent with the distances perceived by the human eye.  The fifth step a5 is the calculation of so-called "background" histograms representative of the IAF background image in the vertical and horizontal directions: the vertical background histogram HFY, shown in FIG. 2, is obtained by row-by-row summation of the pixel values of the background image IAF, and the horizontal background histogram HFX is obtained by column-by-column summation of the pixel values of the IAF background image. .  These background histograms characterize the adequacy of a row or a column of pixels with the background color of the facade: they contain strong values on the areas of the image containing facade elements, and 15 low values. on the inter-element zones.  The sixth step a6 is the fusion of histograms of vertical and horizontal contours previously calculated, with the vertical and horizontal background histograms respectively.  These four histograms are relatively correlated, which makes it possible to merge them to sum up the information and increase the robustness of the analysis of the facade image.  The great diversity of façade images requires the provision of a robust cell segmentation method to ensure a high rate of correct results.  We then obtain two so-called "window" histograms, one vertical and the other horizontal, defined by the formulas: HWindow (y) ù HFY (Y).  HHY (Y) H Window (x) ù HFX (x) HVX (x) y is a variable designating a pixel line of the facade image 10, where x is a variable designating a column of pixels of the facade image 10, - HWindow (y) is the value of the vertical window histogram in the row of pixels y, 5 - HWindow (x) is the value of the horizontal window histogram in the column of pixels x, - HFY (y) is the value of the vertical background histogram HFY in the line of pixels y, - HFX (x) is the value of the horizontal background histogram HFX in the column of pixels x, - HHY (y) is the value of the histogram of vertical contours HHY in the row of pixels y, - and HvX (x) is the value of the histogram of horizontal contours HVX in the column of pixels x.  It should be noted that in this embodiment the values of the histograms are multiplied with one another, but other modes of fusion can be used, for example using weighted sums.  These window histograms will then be used in cell segment image segmentation step E4 because they contain peaks on areas representing facade elements and valleys in inter-element areas.  The third step E3 of the modeling method according to the invention is the detection of a color change on the facade image 10.  Indeed, the window histograms obtained in step E2 are disturbed at the levels of color changes on the facade.  In this embodiment of the invention, only a color change is detected in a vertical direction, because the buildings very often have ground floors coated with a different color from that of the upper floors.  However, it is easy to adapt this embodiment to the detection of a color change in a horizontal direction, or to several color changes.  This step E3 is broken down into four steps b1 to b4 shown in FIG.  Step b1 is a Hough transformation of an image of the luminances IL obtained from the initial color facade image, and shown in FIG.  The image of the luminances IL is calculated by changing the color space of the image 10.  The pixels of the image 10 are initially represented in the Red / Green / Blue RGB color coding system according to the English "Red Green Blue", by triplets representing the 10 values of these three components.  These colors encoded in the RGB system are converted into coded colors in the CIE coding system L * a * b *.  The components a * and b * represent the chrominance plane while the L * axis represents the luminance variations.  The image of the luminances IL is obtained by keeping only the L * component of the colors L * a * b * thus calculated from the initial color image.  It should be noted that the CIE L * a * b * color space is used in the invention to calculate distances between colors and in particular during the "Largest Empty Rectange" algorithms during the detection of the background color and when constructing Background histograms.  The Hough transform of the IL luminance image is performed according to a known method described in US Pat. No. 3,069,654. V. C.  Hough, entitled "Method and Means for Recognizing Complex Patterns".  This transform makes it possible to detect the presence of lines within a two-dimensional signal.  The resultant ITH image of this transform contains much more marked lines than those present on the IC contour image.  Step b2 is the calculation of a HTH histogram called "Hough", in a vertical direction of the resulting image ITH.  This histogram is obtained by summing the pixel values of the ITH image line by line.  It has very sharp peaks at horizontal lines on the ITH image and smaller peaks at the horizontal edges of facade elements.  It should be noted that the Hough HTH histogram calculation does not require the complete construction of the Hough image, but only the portion of the Hough image corresponding to the vertical and horizontal lines.  Step b3 is the calculation of a so-called "ground floor" histogram, obtained by linear combination of the HHY vertical contour histogram, the HFY vertical background histogram, the Hough vertical histogram HTH and the contour histogram HVY, according to the formula: HRDc (y) = 3 • HFY (y) + 2 • H, (y) + HTH (y) -HHY (y) where y is a variable designating a line of pixels of the facade image 10, HRDC (y) is the value of the ground floor histogram in the variable y, HFY (y) is the value of the vertical background histogram HFY in the variable y, HvY (y) is the value of the contour histogram HVY in the variable y, HTH (y) is the value of the histogram of vertical Hough HTH in the variable y, and HHY (y) is the value of the histogram of vertical contours HHY in the variable y.  This ground floor histogram was constructed to obtain a peak on the boundary between two areas of different colors.  This is because, on the one hand, histograms that have high values on such transition areas, i.e., the HVY contour histogram and the Hough HTH histogram, are summed because they detect horizontal lines, and the background histogram HFY because it has high values 30 on the ground floor area, 2910674 19 and on the other hand subtract the histogram from vertical contours HHY because it must be zero on the transitions zones, which has the effect of attenuating the other peaks of the window histogram.  Similarly, if it is desired to detect a color change in a horizontal direction, it is sufficient to perform the symmetrical linear combination thereof, with the histogram of HVX horizontal contours, the HFX horizontal background histogram. , a histogram representative of the resulting ITH image of the Hough transform in a horizontal direction, and the HHX contour histogram.  Step b4 is the detection of the peak marking the boundary between the ground floor and the floors of the facade of the image 10, on the previously calculated ground floor histogram.  We are looking for a maximum in the lower half of the histogram.  Indeed, being unable to make any assumption on the number of floors in the facade, it is simply assumed that there are at least two levels in the building.  The boundary between the ground floor and the floor or floors is therefore in the lower half of the facade image 10.  So we go through the histogram of ground floor and, we look for, on all the maxima of its lower half, the peak of greater amplitude satisfying the following criteria: 20 HRDC (i)> 2/3, N Window U ) j H H Fen Fen)))) Fen Fen Fen Fen Fen Fen Fen Fen Fen Fen Fen Fen Fen Fen Fen Fen Fen Fen. 8 H Window Ci) i = ii = i where i is a pixel line variable of the facade image corresponding to a peak on the lower half of the ground floor histogram, j = 0 1 H window (J) j = 0 1> ù, 2 2910674 20 j is an index traversing the N values of the vertical window histogram from top to bottom with respect to the facade image 10, N is the size of the window. vertical window histogram, HRDC (i) is the value of the histogram of the ground floor histogram in the variable i, and HWindow (j) is the value of the vertical window histogram in the variable j.  This determines the line of the facade image 10 corresponding to the peak of ground floor.  This additional criterion of selecting the maxima of the ground floor histogram makes it possible to suppress the peaks not being on areas of variations of the average background color.  The fourth step E4 of the modeling method according to the invention is the cell segmentation of the facade image 10.  For this, the window histograms obtained in step E2 are analyzed.  The vertical window histogram is separated into two sub-histograms corresponding to two sub-images of the facade image 10, one containing the ground floor of the building whose facade is being analyzed, and the other containing the upper floors.  This separation uses the previous E3 detection step, which provides the vertical window histogram separation line.  It makes it possible to overcome disturbances on the vertical window histogram, due to the change of color on the facade image 10.  As noted above, window histograms have "valleys" in the inter-element areas.  The analysis of the minima of the vertical window sub-histogram representative of the stages thus makes it possible to determine the boundaries between stages.  Similarly, the analysis of the minima of the horizontal window histogram makes it possible to determine the boundaries between facade elements.  2910674 21 To facilitate the search for minima, the high frequencies of these histograms are filtered on a wavelet basis.  More precisely, the signals of the window histograms are broken down into frequencies on a Daubechies wavelet basis, and are filtered by suppressing the high frequencies.  This makes it possible to smooth the histograms, as shown, for example, in the diagram of FIG. 6, having on the abscissa the axis AX1 of lines of pixels and on the ordinate the axis AY1 of values of the vertical window sub-histogram representative of the stages: The unfiltered signal SO of this sub-histogram has many peaks due to irregularities of the facade elements, while the corresponding SF1 filtered signal has only a few minima and maxima remaining to be analyzed.  As the horizontal window histogram is generally more sensitive to image noise and disturbance than the vertical window histogram, the horizontal window histogram undergoes in this step E4, in addition to this frequency filtering, a process of periodic delay.  This process analyzes the periodicity of the horizontal window histogram by a study of the covariance and, if appropriate, applies a set of Gaussian centered on the minimums of the curves meeting the periodicity criterion.  The diagram of FIG. 7, having on the abscissa the axis AX2 of lines of pixels and the ordinate axis AY2 of values of the horizontal window histogram shows the signal filtered in SF2 frequencies of this histogram, a Gaussian SG applied to this filtered signal SF2, and the histogram resulting from this application SR.  The filtered signal SF1 of the vertical window sub-histogram and the resulting signal SR of the horizontal window histogram are then analyzed.  For this, the distribution spaces of the values of these signals are partitioned, and thresholds are dynamically fixed on these signals from the partitions created.  More precisely, these partitions are classified into four groups by a K-Mean algorithm, which dynamically sets three thresholds.  Thus, in the example of FIG. 6, the values of the filtered signal SF1 are distributed in four intervals as a function of their positions with respect to three thresholds S1, S2 and S3.  These thresholds make it possible to classify the minima of the signals so as to keep only the global minima: only the minima lower than the lowest threshold are kept, and two minima are fused if they are not separated by a maximum greater than the median threshold. .  it

permet de fusionner deux minima se trouvant dans la même zone inter-éléments. Les minima globaux obtenus par analyse du signal filtré SF1 délimitent les étages entre eux et permettent de segmenter l'image de façade étage par étage. Les minima globaux obtenus par analyse du signal résultant SR 10 délimitent les éléments de façade entre eux et permettent de segmenter les étages en cellules, chacune ne comprenant qu'un seul élément de façade. En variante, au lieu de calculer un seul histogramme de fenêtre horizontal à l'étape E2, on calcule à l'étape E4 un histogramme de fenêtre par étage, après segmentation par étages de l'image de contours filtrée 15 verticalement, et segmentation par étages de l'image d'appartenance au fond, à partir des minima globaux obtenus par analyse du signal filtré SF1. Ceci permet d'affiner les résultats, par comparaison inter-étages des limites de cellules trouvées par analyse des différents histogrammes de fenêtre horizontaux. Ceci permet d'aligner les cellules, ce qui accroit la qualité visuelle 20 de la segmentation, et de comparer la segmentation de chaque étage pour ajouter ou supprimer certaines cellules en fonction des étages voisins. La cinquième étape E5 du procédé de modélisation selon l'invention est la détection des éléments de façade dans les cellules obtenues à l'étape 25 précédente. Cette étape consiste à extraire précisément les éléments de façade du fond de la façade. En effet une cellule est assimilable à un élément de façade entouré de zones de fond. Pour extraire précisément la zone de chaque cellule représentant l'élément de façade, un processus de croissance de régions rectangulaires est 30 utilisé. Le principe de ce processus est d'agrandir une région possédant certaines propriétés de forme, ici une forme rectangulaire, en fonction d'une 2910674 23 carte de distances calculée à partir de l'image. Un exemple d'algorithme de croissance de régions rectangulaires pour détecter des éléments de façade est décrit dans l'article de K. Schindler et J. Bauer cité plus haut. Plus précisément la carte de distances est créée dans cette étape E5 5 en additionnant les valeurs des pixels de l'image d'appartenance au fond IAF et les valeurs des pixels de l'image de contours IC. Il est à noter que la figure 4 représente pour des raisons pratiques une image de contours IC inversée, l'image de contours IC étant composée en réalité de contours blancs sur fond noir. Cette carte de distances est ensuite filtrée par une gaussienne calculée 10 en fonction de la distribution de cette carte, c'est-à-dire en fonction de la moyenne et de la variance de la carte, pour atténuer le bruit et minimiser les valeurs proches de zéro, c'est-à-dire les valeurs des pixels des zones de fond, ou les valeurs proches de un, c'est-à-dire les valeurs des pixels sur des éléments de façade. Enfin, on soustrait la valeur moyenne de la carte filtrée à 15 toutes les valeurs de cette carte pour obtenir une carte de distances positive sur les régions représentant des éléments de façade et négative ailleurs. La carte ainsi obtenue est alors fournie au processus de croissance de régions, qui à partir d'une petite zone rectangulaire de départ, positionnée au centre des cellules telles que délimitées à l'étape E4, converge vers la zone 20 rectangulaire maximisant la valeur moyenne des pixels de la région correspondante. La sixième étape E6 du procédé de modélisation selon l'invention est la classification des éléments de façade et des textures de fond de l'image 25 de façade 10, à partir d'un catalogue d'éléments de façade et de textures de fond. Ce catalogue est par exemple contenu dans une base de données BD2, représentée à la figure 8, le procédé de modélisation selon l'invention étant implémenté de manière logicielle dans un serveur de données de visualisation SERV, relié à une base de données BD1 d'images de façade d'une ville. En 30 variante le procédé de modélisation selon l'invention est implémenté sur plusieurs machines fonctionnant en parallèle.  allows to merge two minima located in the same inter-element zone. The global minima obtained by analysis of the SF1 filtered signal delimit the stages between them and make it possible to segment the facade image floor by floor. The overall minima obtained by analysis of the resulting signal SR 10 delimit the facade elements between them and make it possible to segment the floors into cells, each comprising only one facade element. Alternatively, instead of calculating a single horizontal window histogram in step E2, step E4 computes a window histogram per floor, after step segmentation of the vertically filtered contour image, and segmentation by stages of the image belonging to the background, from the global minima obtained by analysis of the SF1 filtered signal. This makes it possible to refine the results, by inter-stage comparison of the limits of cells found by analysis of the different horizontal window histograms. This allows the cells to be aligned, which increases the visual quality of the segmentation, and to compare the segmentation of each stage to add or remove cells based on neighboring stages. The fifth step E5 of the modeling method according to the invention is the detection of the facade elements in the cells obtained in the previous step 25. This step consists in precisely extracting the facade elements from the bottom of the facade. Indeed a cell is comparable to a facade element surrounded by background areas. To accurately extract the area of each cell representing the facade element, a process of growing rectangular regions is used. The principle of this process is to enlarge a region having certain shape properties, here a rectangular shape, according to a distance map computed from the image. An example of an algorithm for growing rectangular regions to detect facade elements is described in the article by K. Schindler and J. Bauer cited above. More precisely, the distance map is created in this step E5 by adding the values of the pixels of the image belonging to the background IAF and the values of the pixels of the contour image IC. It should be noted that FIG. 4 represents for practical reasons an inverted IC contour image, the contour image IC being actually composed of white outlines on a black background. This distance map is then filtered by a Gaussian calculated according to the distribution of this map, that is to say according to the average and the variance of the map, to attenuate the noise and to minimize the values close to it. of zero, that is to say the values of the pixels of the background areas, or the values close to one, that is to say the values of the pixels on facade elements. Finally, the average value of the filtered card is subtracted from all the values of this map to obtain a positive distance map on the regions representing facade elements and negative elsewhere. The map thus obtained is then supplied to the region growth process, which from a small rectangular starting area, positioned in the center of the cells as delimited in step E4, converges towards the rectangular zone maximizing the average value. pixels of the corresponding region. The sixth step E6 of the modeling method according to the invention is the classification of the facade elements and background textures of the facade image 10, from a catalog of facade elements and background textures. This catalog is for example contained in a database BD2, represented in FIG. 8, the modeling method according to the invention being implemented in a software manner in a servicing data server SERV, connected to a database BD1 of FIG. facade images of a city. In a variant, the modeling method according to the invention is implemented on several machines operating in parallel.

2910674 24 Le catalogue d'éléments de façade est mis à jour au fur et à mesure que le serveur SERV analyse les images de façade de la base de données BD1. Il contient des images permettant de reconstruire des images de façade de synthèse le plus fidèlement possible par rapport aux images de façade 5 réelles. Ces images sont de deux types: des images de textures de fond des façades, de faible dimension, qui sont répétées sur le fond des images de synthèse pour créer des images hautes résolutions, et des images correspondant aux éléments de façades extraits des 10 cellules lors de l'étape E5. Les images de textures de fond caractérisant les étages de l'image de façade sont créées en utilisant la carte de distances créée à l'étape E5 et à partir de laquelle on a extrait les éléments unitaires de façades. Cette carte est parcourue pour rechercher la plus grande zone rectangulaire pour laquelle 15 la somme des pixels la composant est minimum. On extrait ensuite une région rectangulaire uniforme de petite taille correspondant à cette zone dans l'image de façade IO initiale en couleurs, que l'on répète pour recréer une image de fond de même taille que les étages de l'image de façade 10. Une autre image de texture de fond est créée de manière similaire pour caractériser le rez-de- 20 chaussée. Afin de permettre une reconstruction rapide d'images de façade depuis un terminal distant connecté à un serveur de données de visualisation, le catalogue ne garde que les images d'éléments de façade et les images de textures de fond les plus caractéristiques des images analysées au fur et à 25 mesure selon l'invention. La constitution du catalogue est effectuée en même temps que l'analyse des images de façades, afin d'optimiser la construction des modèles procéduraux de façade. Pour cela, les images correspondant aux éléments de façades extraits lors de l'étape E5, sont analysées par des descripteurs de couleurs, de texture 30 et de forme. De même des images de textures de fond extraites des images de façade de la base de données BD1 sont analysées par des descripteurs de 2910674 25 couleurs et de textures. Suivant le résultat de l'étape E3 de détection de changement de couleur, plusieurs images de textures de fond par image de façade sont éventuellement décrites. La description de chaque élément permet de les représenter dans un espace de description de grande taille et de 5 mesurer dans cette espace la similarité entre éléments. Les deux types d'images stockées dans le catalogue requièrent la mise en place de deux espaces de description, l'un pour les images de textures de fond et l'autre pour les images correspondant aux éléments de façade. En effet, bien que les descripteurs utilisés pour décrire les images de textures de fond et les 10 descripteurs utilisés pour décrire les images correspondant aux éléments de façade extraits soient en partie identiques, notamment pour la description des couleurs et des textures, ces dernières images sont analysées séparément. Ils sont décrits également par des descripteurs de forme utilisant une approche région, par exemple utilisant la transformation Angular Radial Transform 15 (ART). Les descripteurs de couleurs sont créés en calculant des histogrammes couleurs des images à décrire. Cette approche est proposée par M. J. Swain et D. H. Ballard dans leur article "Color indexing" publié en 1991 dans le magazine "International Journal of Computer Vision". Elle consiste à 20 représenter les pixels des images sous forme d'histogrammes des valeurs de leurs couleurs. Dans ce mode de réalisation de l'invention, trois histogrammes sont créés, une par composante couleur des pixels décrits dans l'espace couleur CIE L*a*b*. Ces histogrammes sont quantifiés pour réduire l'espace de description et la valeur de chaque quantification est stockée comme 25 descripteur. Les descripteurs de texture utilisent une analyse de la texture des images. Cette analyse se base sur les travaux de Yong Man Ro, Munchurl Kim, Ho Kyung Kang, B.S. Manjunath, et Jinwoong Kim, décrits dans l'article "MPEG-7 Homogeneous Texture Descriptor" publié en 2001 dans le magazine 30 "Electronics and Telecommunications Research Institute (ETRI) journal".2910674 24 The facade element catalog is updated as the SERV server parses the front images of the BD1 database. It contains images for reconstructing synthetic facade images as closely as possible to actual facade images. These images are of two types: images of background textures of the facades, of small dimensions, which are repeated on the background of the computer images to create high resolution images, and images corresponding to the elements of facades extracted from the cells when from step E5. The background texture images characterizing the stages of the facade image are created using the distance map created in step E5 and from which the unitary elements of facades were extracted. This map is scanned to search for the largest rectangular area for which the sum of the pixels composing it is minimum. A small uniform rectangular region corresponding to this zone is then extracted into the initial color IO facade image, which is repeated to recreate a background image of the same size as the stages of the facade image 10. Another background texture image is similarly created to characterize the ground floor. In order to allow a fast reconstruction of facade images from a remote terminal connected to a visualization data server, the catalog keeps only the images of facade elements and the most characteristic background texture images of the images analyzed in and according to the invention. The constitution of the catalog is carried out at the same time as the analysis of the images of facades, in order to optimize the construction of the procedural facade models. For this purpose, the images corresponding to the elements of façades extracted during step E5 are analyzed by color, texture and shape descriptors. Similarly, background texture images extracted from the facade images of the database BD1 are analyzed by descriptors of colors and textures. According to the result of the color change detection step E3, several background texture images per facade image are possibly described. The description of each element makes it possible to represent them in a large description space and to measure in this space the similarity between elements. The two types of images stored in the catalog require two description spaces, one for background texture images and the other for images corresponding to facade elements. Indeed, although the descriptors used to describe the background texture images and the descriptors used to describe the images corresponding to the extracted façade elements are partly identical, in particular for the description of the colors and textures, these last images are analyzed separately. They are also described by shape descriptors using a region approach, for example using the Angular Radial Transform transformation (ART). The color descriptors are created by calculating color histograms of the images to be described. This approach is proposed by M. J. Swain and D. H. Ballard in their article "Color indexing" published in 1991 in the magazine "International Journal of Computer Vision". It consists in representing the pixels of the images in the form of histograms of the values of their colors. In this embodiment of the invention, three histograms are created, one per color component of the pixels described in the CIE color space L * a * b *. These histograms are quantized to reduce the description space and the value of each quantization is stored as a descriptor. Texture descriptors use an image texture analysis. This analysis is based on the work of Yong Man Ro, Kim Munchurl, Kyung Kang Ho, BS Manjunath, and Jinwoong Kim, described in the article "MPEG-7 Homogeneous Texture Descriptor" published in 2001 in the magazine "Electronics and Telecommunications". Research Institute (ETRI) journal ".

2910674 26 Une fois tous les éléments et textures de fond des images de façade de la base de données BD1 indexés à l'aide de ces descripteurs dans le catalogue de la base de données BD2, les deux espaces de descriptions sont segmentés en classes d'éléments similaires par l'algorithme des nuées 5 dynamiques. Cet algorithme est une méthode de classification automatique qui a pour objectif de partitionner l'espace en un certain nombre de classes. Il est décrit notamment dans les articles suivants: "Least squares quantization in pulse-code modulation (PCM)", de S. P. Lloyd, publié en 1982 dans le magazine "IEEE Transactions on 10 Information Theory", et "Some Methods for classification and Analysis of Multivariate Observations", de J. B. MacQueen, publié en 1967 à l'occasion de la cinquième conférence "Berkeley Symposium on Mathematical Statistics and Probability".Once all the background elements and textures of the facade images of the database BD1 indexed using these descriptors in the catalog of the database BD2, the two description spaces are segmented into classes. similar elements by the dynamic cloud 5 algorithm. This algorithm is an automatic classification method that aims to partition space into a certain number of classes. It is described in particular in the following articles: "Least squares quantization in pulse-code modulation (PCM)", by SP Lloyd, published in 1982 in the magazine "IEEE Transactions on 10 Information Theory", and "Some Methods for Classification and Analysis" "From Multivariate Observations", by JB MacQueen, published in 1967 for the fifth "Berkeley Symposium on Mathematical Statistics and Probability".

15 Le choix du nombre de classes à garder, et donc du nombre final de textures de fond et d'éléments de façades dans le catalogue, est défini en fonction de la précision du réalisme voulu et de la taille du catalogue que l'on souhaite. A l'issue de cette segmentation, on associe chaque image de texture de fond ou d'élément de façade à sa classe. Cette association est conservée pour 20 chaque image de façade dans la base de données BD1, qui mémorise aussi la position des éléments ou des textures sur les façades correspondantes. Puis on supprime du catalogue toutes les images n'étant pas définies par l'algorithme des nuées dynamiques comme un centre d'une classe. Ceci permet de ne garder que peu d'éléments de façade, tout en garantissant que 25 chaque élément aura un représentant de classe visuellement proche qui le remplacera dans les images de synthèse. L'image de façade 10 est associée dans ce mode de réalisation à deux images de textures de fond, l'une pour le rez-de-chaussée et l'autre pour les étages supérieurs. Chacune de ces images de textures sont classées, à l'issue 30 de l'étape E6, dans une classe d'images de textures de fond très proches représentée par l'image du centre de cette classe. De même, les éléments de 2910674 27 façade extraits à l'étape E5 sont classés dans des classes représentées chacune par un élément de façade très ressemblant. Suivant le réalisme souhaité ou le type de façade analysé, par exemple si plusieurs changements de couleurs de la façade sont détectés à l'étape E3, l'image de façade 10 est 5 associée à plus d'images de textures de fond: par exemple on associe à chaque étage de l'image de façade 10 une image de texture de fond. Enfin la septième étape E7 du procédé de modélisation selon l'invention est la modélisation de l'image de façade 10. Cette modélisation est par 10 exemple la modélisation procédurale proposée dans la norme MPEG4, dans la partie "Animation Framework eXtension". Elle s'effectue par le remplissage de paramètres de modélisation définissant notamment: la position et la taille du rez-de-chaussée et des étages, le nombre d'étages, 15 pour chaque étage, le nombre et la position des cellules un numéro de classe associé à l'image de texture caractérisant les étages de l'image de façade 10, un numéro de classe associé à l'image de texture caractérisant le rez-de-chaussée de l'image de façade 10, 20 pour chaque cellule, leur taille et un numéro de classe associé à un élément de façade éventuellement présent dans cette cellule, ainsi que sa position dans la cellule, sa taille, etc. Le serveur SERV de données de visualisation d'une ville est connecté à 25 des terminaux clients par un réseau de communication RES, représenté à la figure 8. Lorsqu'un utilisateur navigue virtuellement dans la ville à l'aide d'un navigateur sur un terminal distant T relié au serveur SERV par le réseau RES, le terminal T demande au serveur SERV, par une requête REQ de données de visualisation, la transmission de données à afficher correspondant à l'endroit 30 où se trouve virtuellement l'utilisateur dans la ville. Le serveur SERV envoie alors au terminal T une réponse REP contenant des données de façades à 2910674 28 afficher. Ces données comportent les modèles procéduraux des façades à visualiser, et tout ou partie du catalogue d'éléments de façade et de textures de fond. Le signal d'information transportant les données de la requête REP est donc beaucoup plus compact que s'il fallait transmettre les images réelles 5 des façades, et permet une reconstruction de bonne résolution et similaire aux façades d'origine. 10The choice of the number of classes to be kept, and therefore the final number of background textures and facade elements in the catalog, is defined according to the accuracy of the desired realism and the size of the catalog that is desired. . At the end of this segmentation, each image of background texture or facade element is associated with its class. This association is maintained for each facade image in the database BD1, which also stores the position of the elements or textures on the corresponding facades. Then we delete from the catalog all the images that are not defined by the dynamic clouds algorithm as a center of a class. This makes it possible to keep only a few facade elements, while ensuring that each element will have a visually close class representative that will replace it in the computer-generated images. The facade image 10 is associated in this embodiment with two background texture images, one for the ground floor and the other for the upper floors. Each of these texture images are classified, at the end of step E6, in a very close class of background texture images represented by the center image of this class. Likewise, the facade elements extracted in step E5 are classified into classes each represented by a very similar façade element. Depending on the desired realism or the type of facade analyzed, for example if several color changes of the facade are detected in step E3, the front image 10 is associated with more images of background textures: for example each floor of the facade image 10 is associated with a background texture image. Finally, the seventh step E7 of the modeling method according to the invention is the modeling of the facade image 10. This modeling is for example the procedural modeling proposed in the MPEG4 standard, in the "Animation Framework eXtension" part. It is carried out by filling modeling parameters defining in particular: the position and the size of the ground floor and the floors, the number of floors, 15 for each floor, the number and the position of the cells a number of class associated with the texture image characterizing the stages of the facade image 10, a class number associated with the texture image characterizing the ground floor of the facade image 10, 20 for each cell, their size and a class number associated with a facade element possibly present in this cell, as well as its position in the cell, its size, etc. The server SERV of visualization data of a city is connected to 25 client terminals by a communication network RES, shown in FIG. 8. When a user navigates virtually in the city using a browser on a remote terminal T connected to the server SERV by the network RES, the terminal T asks the server SERV, by a query REQ visualization data, the transmission of data to be displayed corresponding to the place where virtually the user is in the city. The server SERV then sends the terminal T a REP response containing facade data 2910674 to display. These data include the procedural models of the facades to be viewed, and all or part of the catalog of facade elements and background textures. The information signal conveying the data of the REP request is therefore much more compact than if it were necessary to transmit the real images of the facades, and allows a reconstruction of good resolution and similar to the original facades. 10

Claims (10)

REVENDICATIONS 1. Procédé d'analyse d'une image structurée (10) contenant des éléments unitaires à détecter, alignés suivant deux directions horizontale et verticale, comportant les étapes de: Détection (a1) de contours et obtention d'une image de contours (IC), Calcul (a3) d'un histogramme selon une direction verticale ou horizontale, représentatif de ladite image de contours (IC), appelé respectivement histogramme de contours verticaux (HHY) ou histogramme de contours horizontaux (HVX), ledit procédé étant caractérisé en ce qu'il comporte les étapes supplémentaires de: Calcul (a4) d'une image d'appartenance au fond (IAF) à partir de ladite image structurée (10), Calcul (a5) d'un histogramme selon une direction verticale ou horizontale, représentatif de ladite image d'appartenance au fond (IAF), appelé respectivement histogramme de fond vertical (HFY) ou histogramme de fond horizontal (HFX), Fusion (a6) dudit histogramme de fond vertical (HFY) ou horizontal (HFX) avec respectivement ledit histogramme de contours verticaux (HHY) ou ledit histogramme de contours horizontaux (HVX), en un histogramme appelé respectivement histogramme de fenêtre vertical ou histogramme de fenêtre horizontal.  A method of analyzing a structured image (10) containing unit elements to be detected, aligned in two horizontal and vertical directions, comprising the steps of: Detecting (a1) contours and obtaining an outline image (IC ), Calculating (a3) a histogram in a vertical or horizontal direction, representative of said contour image (IC), respectively called vertical contour histogram (HHY) or horizontal contour histogram (HVX), said method being characterized in it comprises the additional steps of: computation (a4) of a background image (IAF) from said structured image (10), calculation (a5) of a histogram in a vertical or horizontal direction , representative of said background membership image (IAF), respectively called vertical background histogram (HFY) or horizontal background histogram (HFX), Fusion (a6) of said vertical (HFY) or horizontal (HFX) background histogram with respec said vertical contour histogram (HHY) or horizontal contour histogram (HVX) into a histogram called vertical window histogram or horizontal window histogram, respectively. 2. Procédé d'analyse d'une image structurée (10) selon la revendication 1, caractérisé en ce que dans l'étape de fusion (a6) l'histogramme de fond 2910674 30 vertical (HFY) ou horizontal (HFX) est multiplié respectivement par l'histogramme de contours verticaux (HHY) ou horizontaux(HVX).  A method of analyzing a structured image (10) according to claim 1, characterized in that in the melting step (a6) the vertical (HFY) or horizontal (HFX) background histogram is multiplied respectively by the histogram of vertical (HHY) or horizontal (HVX) contours. 3. Procédé d'analyse d'une image structurée (10) selon la revendication 1 ou 5 2, comportant en outre une étape de détection (E3) de changement de couleur vertical ou horizontal, permettant de séparer respectivement l'histogramme de fenêtre vertical ou l'histogramme de fenêtre horizontal en deux sous-histogrammes chacun représentatif d'une couleur de ladite image structurée (10). 10  A method of analyzing a structured image (10) according to claim 1 or 2, further comprising a step of detecting (E3) vertical or horizontal color change, for respectively separating the vertical window histogram. or the horizontal window histogram in two sub-histograms each representative of a color of said structured image (10). 10 4. Procédé d'analyse d'une image structurée (10) selon l'une quelconque des revendications 1 à 3, dans lequel les histogrammes de contours verticaux (HHY) ou horizontaux (HVX) sont obtenus après un filtrage respectivement horizontal ou vertical de ladite image de contours (IC).  A method of analyzing a structured image (10) according to any one of claims 1 to 3, wherein the histograms of vertical (HHY) or horizontal (HVX) contours are obtained after horizontal or vertical filtering respectively. said contour image (IC). 5. Procédé d'analyse d'une image structurée (10) selon les revendications 3 et 4, dans lequel l'étape de détection (E3) de changement de couleur vertical comporte les étapes de: Transformation (b1) de Hough d'une image des luminances (IL) de ladite image structurée (10), Calcul (b2) d'un histogramme selon une direction verticale, représentatif de l'image résultante (ITH) de ladite transformation, appelé histogramme de Hough vertical (HTH), Calcul (b3) d'un histogramme appelé histogramme de rez-de-chaussée par combinaison linéaire dudit histogramme de fond vertical (HFY), dudit histogramme de Hough vertical (HTH), dudit histogramme de contours verticaux (HHY), et d'un histogramme (HVY) selon une direction verticale représentatif de ladite image de contours filtrée verticalement (IFV). 15 20 25 30 2910674 31  A method of analyzing a structured image (10) according to claims 3 and 4, wherein the step of detecting (E3) vertical color change comprises the steps of: Hough processing (b1) of a image of the luminances (IL) of said structured image (10), Calculation (b2) of a histogram in a vertical direction, representative of the resulting image (ITH) of said transformation, called vertical Hough histogram (HTH), Calculation (b3) of a histogram called a ground floor histogram by linear combination of said vertical bottom histogram (HFY), said vertical Hough histogram (HTH), said histogram of vertical outlines (HHY), and a histogram (HVY) in a vertical direction representative of said vertically filtered contour image (IFV). 15 20 25 30 2910674 31 6. Procédé d'analyse d'une image structurée (10) selon la revendication 5, dans lequel l'étape de calcul (b3) dudit histogramme de rez-de-chaussée utilise la formule suivante: HRDC(Y)=3.HFY(Y)+2.Hvy(Y)+HTH(y)ûHHY(y) 5 où HRDC(y) est la valeur dudit histogramme de rez-de-chaussée en une variable y de ligne de ladite image (10), HFY(y) est la valeur dudit histogramme de fond vertical (HFY) en ladite variable y, 10 Hvy (y) est la valeur dudit histogramme (HVY) représentatif de ladite image de contours filtrée verticalement (IFV), selon une direction verticale, en ladite variable y, HTH(y) est la valeur dudit histogramme de Hough vertical (HTH) en ladite variable y, 15 et HHY (y) est la valeur dudit histogramme de contours verticaux (HHY) en ladite variable y.  A method of analyzing a structured image (10) according to claim 5, wherein the step of calculating (b3) said ground floor histogram uses the following formula: HRDC (Y) = 3.HFY (Y) + 2.Hvy (Y) + HTH (y) ûHHY (y) where HRDC (y) is the value of said ground floor histogram in a line variable y of said image (10), HFY (y) is the value of said vertical background histogram (HFY) in said variable y, Hvy (y) is the value of said histogram (HVY) representative of said vertically filtered contour image (IFV), in a vertical direction, in said variable y, HTH (y) is the value of said vertical Hough histogram (HTH) in said variable y, and HHY (y) is the value of said vertical contour histogram (HHY) in said variable y. 7. Procédé d'analyse d'une image structurée (10) selon l'une quelconque des revendications 1 à 6, dans lequel on calcule à la fois un histogramme de 20 fenêtre horizontal et un histogramme de fenêtre vertical, caractérisé en ce qu'il comporte les étapes supplémentaires de: segmentation (E4) de ladite image structurée (10) en cellules comportant chacune un desdits éléments unitaires de ladite image structurée (10), par analyse desdits histogrammes de fenêtre horizontal 25 et vertical, détection (E5) desdits éléments unitaires par utilisation d'un processus de croissance de régions rectangulaires utilisant ladite image d'appartenance au fond (IAF) et ladite image de contours (IC). 2910674 32  A method of analyzing a structured image (10) according to any of claims 1 to 6, wherein both a horizontal window histogram and a vertical window histogram are computed, characterized in that it comprises the additional steps of: segmenting (E4) said structured image (10) into cells each having one of said unit elements of said structured image (10), by analyzing said horizontal and vertical window histograms, detecting (E5) said unitary elements by using a rectangular region growth process using said background membership image (IAF) and said contour image (IC). 2910674 32 8. Procédé d'analyse d'une image structurée (IO) selon la revendication 7, dans lequel l'étape de segmentation (E4) en cellules utilise un filtrage fréquentiel d'au moins un desdits histogrammes de fenêtre horizontal et vertical. 5  The method of analyzing a structured image (IO) according to claim 7, wherein the cell segmentation step (E4) uses frequency filtering of at least one of said horizontal and vertical window histograms. 5 9. Procédé de modélisation d'une image structurée (IP), comportant les étapes de: - transformation (El) perspective inverse de ladite image structurée (IP), - analyse (E2, E3, E4, E5) de ladite image structurée ainsi transformée 10 (10) selon l'une quelconque des revendications 1 à 8, - classification (E6) des éléments de ladite image structurée, détectés à l'issue de ladite analyse (E2, E3, E4, E5), et des textures de fond de ladite image structurée, à partir d'un catalogue d'éléments unitaires et de textures de fond, 15 modélisation (E7) de ladite image structurée (IP) à partir dudit catalogue. 13. Dispositif (SERV) comportant des moyens adaptés à mettre en oeuvre l'un des procédés selon l'une quelconque des revendications 1 à 9. 20 14. Système de modélisation d'une image structurée (IP) comportant: - des moyens d'analyse d'image structurée mettant en oeuvre le procédé d'analyse selon l'une quelconque des revendications 1 à 8, - et des moyens de classification d'éléments unitaires et de textures de 25 fond. 12. Signal représentatif de données de visibilité, transportant un modèle d'image structurée obtenu par analyse d'une image structurée (10) contenant des éléments unitaires alignés suivant deux directions horizontale et verticale, 30 ladite analyse ayant donné lieu à l'obtention d'une image de contours (IC) et d'histogrammes de contours horizontaux (HVX) et verticaux (HHY), 2910674 33 représentatifs de ladite image de contours selon une direction respectivement horizontale et verticale, ledit signal étant caractérisé en ce qu'une image d'appartenance au fond (IAF) ayant été calculée à partir de ladite image structurée, et des histogrammes dits de fond vertical (HFY) et horizontal (HFX) 5 représentatifs de ladite image d'appartenance au fond (IAF) selon une direction respectivement verticale et horizontale ayant été calculés, ladite analyse utilise une fusion dudit histogramme de fond vertical (HFY) avec ledit histogramme de contours verticaux (HHY) et dudit histogramme de fond horizontal (HFX) avec ledit histogramme de contours horizontaux (HVX).  9. A method of modeling a structured image (IP), comprising the steps of: - transformation (E1) inverse perspective of said structured image (IP), - analysis (E2, E3, E4, E5) of said structured image and Transform 10 (10) according to any one of claims 1 to 8, - classification (E6) of the elements of said structured image, detected at the end of said analysis (E2, E3, E4, E5), and textures of background of said structured image, from a catalog of unitary elements and background textures, modeling (E7) of said structured image (IP) from said catalog. 13. Device (SERV) comprising means adapted to implement one of the methods according to any one of claims 1 to 9. 14. A structured image modeling system (IP) comprising: structured image analysis implementing the analysis method according to any one of claims 1 to 8, and means for classifying unitary elements and background textures. A representative visibility data signal, carrying a structured image pattern obtained by analysis of a structured image (10) containing unitary elements aligned in two horizontal and vertical directions, said analysis having resulted in obtaining an edge image (IC) and horizontal contour (HVX) and vertical (HHY) histograms representative of said contour image in a respectively horizontal and vertical direction, said signal being characterized in that an image of background membership (IAF) having been calculated from said structured image, and so-called vertical background (HFY) and horizontal (HFX) histograms representative of said background membership image (IAF) in one direction respectively calculated vertically and horizontally, said analysis uses a merge of said vertical bottom histogram (HFY) with said histogram of vertical contours (HHY) and said histogram horizontal basemap (HFX) with said histogram of horizontal contours (HVX). 10 13. Programme d'ordinateur comportant des instructions pour mettre en oeuvre l'un des procédés selon l'une quelconque des revendications 1 à 9, lorsqu'il est exécuté sur un ordinateur.13. A computer program comprising instructions for carrying out one of the methods of any one of claims 1 to 9 when executed on a computer.
FR0655797A 2006-12-21 2006-12-21 Building's frontage structured image analyzing method, involves merging vertical or horizontal basic histogram with vertical or horizontal contour histogram, in vertical window histogram or horizontal window histogram Withdrawn FR2910674A1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
FR0655797A FR2910674A1 (en) 2006-12-21 2006-12-21 Building's frontage structured image analyzing method, involves merging vertical or horizontal basic histogram with vertical or horizontal contour histogram, in vertical window histogram or horizontal window histogram
PCT/FR2007/052570 WO2008093029A2 (en) 2006-12-21 2007-12-19 Methods for the analysis and modelling of an image containing unit elements to be detected, and corresponding system and device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
FR0655797A FR2910674A1 (en) 2006-12-21 2006-12-21 Building's frontage structured image analyzing method, involves merging vertical or horizontal basic histogram with vertical or horizontal contour histogram, in vertical window histogram or horizontal window histogram

Publications (1)

Publication Number Publication Date
FR2910674A1 true FR2910674A1 (en) 2008-06-27

Family

ID=38516148

Family Applications (1)

Application Number Title Priority Date Filing Date
FR0655797A Withdrawn FR2910674A1 (en) 2006-12-21 2006-12-21 Building's frontage structured image analyzing method, involves merging vertical or horizontal basic histogram with vertical or horizontal contour histogram, in vertical window histogram or horizontal window histogram

Country Status (2)

Country Link
FR (1) FR2910674A1 (en)
WO (1) WO2008093029A2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8419183B2 (en) 2008-12-12 2013-04-16 Essilor International (Compagnie Generale D'optique) Method of preparing an ophthalmic lens for mounting in a cambered eyeglass frame
CN115457296A (en) * 2022-08-31 2022-12-09 华东师范大学 A Structure Extraction Method Oriented to Non-stationary Texture Structure Attributes

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105354842B (en) * 2015-10-22 2017-12-29 武汉康美华医疗投资管理有限公司 A kind of profile key point registration and identification method based on stability region
CN111597973A (en) * 2020-05-14 2020-08-28 大连工业大学 Method for detecting adulteration of qualified salted sea cucumbers by using machine vision
CN118037726B (en) * 2024-04-12 2024-06-04 陕西中铁华博实业发展有限公司 Railway accessory defect detection method and system

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
LAYCOCK, R.G. DAY, A.M.: "Automatic techniques for texture mapping in virtual urban environments", COMPUTER GRAPHICS INTERNATIONAL, 2004. PROCEEDINGS, June 2004 (2004-06-01), pages 586 - 589, XP002452902 *
PAVLIDIS T ET AL: "PAGE SEGMENTATION AND CLASSIFICATION", CVGIP GRAPHICAL MODELS AND IMAGE PROCESSING, ACADEMIC PRESS, DULUTH, MA, US, vol. 54, no. 6, 1 November 1992 (1992-11-01), pages 484 - 496, XP000332317, ISSN: 1077-3169 *
R. G. LAYCOCK, A. M. DAY: "Image Registration in a Coarse Three-Dimensional Virtual Environment", COMPUTER GRAPHICS FORUM, vol. 25, no. 1, March 2006 (2006-03-01), pages 69 - 82, XP002452895 *
SUNG CHUN LEE ET AL: "Extraction and integration of window in a 3D building model from ground view images", COMPUTER VISION AND PATTERN RECOGNITION, 2004. CVPR 2004. PROCEEDINGS OF THE 2004 IEEE COMPUTER SOCIETY CONFERENCE ON WASHINGTON, DC, USA 27 JUNE - 2 JULY 2004, PISCATAWAY, NJ, USA,IEEE, vol. 2, 27 June 2004 (2004-06-27), pages 113 - 120, XP010708848, ISBN: 0-7695-2158-4 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8419183B2 (en) 2008-12-12 2013-04-16 Essilor International (Compagnie Generale D'optique) Method of preparing an ophthalmic lens for mounting in a cambered eyeglass frame
CN115457296A (en) * 2022-08-31 2022-12-09 华东师范大学 A Structure Extraction Method Oriented to Non-stationary Texture Structure Attributes

Also Published As

Publication number Publication date
WO2008093029A3 (en) 2009-07-23
WO2008093029A2 (en) 2008-08-07

Similar Documents

Publication Publication Date Title
Li et al. Reconstructing building mass models from UAV images
US12165292B2 (en) Generating an image mask for a digital image by utilizing a multi-branch masking pipeline with neural networks
EP3707676B1 (en) Method for estimating the installation of a camera in the reference frame of a three-dimensional scene, device, augmented reality system and associated computer program
CN111275696B (en) Medical image processing method, image processing method and device
CN114612488B (en) Methods for extracting individual building information, computer devices and storage media
US11393100B2 (en) Automatically generating a trimap segmentation for a digital image by utilizing a trimap generation neural network
US8798965B2 (en) Generating three-dimensional models from images
CN109598794B (en) Construction method of three-dimensional GIS dynamic model
CN111126184B (en) Post-earthquake building damage detection method based on unmanned aerial vehicle video
EP2637126B1 (en) Method and apparatus for detecting vehicle
WO2018145470A1 (en) Image detection method and device
CN109840483B (en) Landslide crack detection and identification method and device
CN107862698A (en) Light field foreground segmentation method and device based on K mean cluster
CN107248174A (en) A kind of method for tracking target based on TLD algorithms
CN113421210A (en) Surface point cloud reconstruction method based on binocular stereo vision
Babu et al. An efficient image dahazing using Googlenet based convolution neural networks
WO2008093029A2 (en) Methods for the analysis and modelling of an image containing unit elements to be detected, and corresponding system and device
CN116843738B (en) Tree dumping risk assessment system and method based on TOF depth camera
CN115294162B (en) Target identification method, device, equipment and storage medium
CN114693713A (en) Method for quickly recovering dust and smoke removal of mine high-definition image
CN114973057B (en) Video image detection method and related equipment based on artificial intelligence
CN116229395A (en) Target detection model training method, target detection device and vehicle
He et al. A novel way to organize 3D LiDAR point cloud as 2D depth map height map and surface normal map
RU2488881C2 (en) Method of identifying lines on earth's surface
Kottler et al. Context-aware Patch-based Method for Façade Inpainting.

Legal Events

Date Code Title Description
ST Notification of lapse

Effective date: 20081020