WO2016038208A2 - Procede et systeme de modelisation automatisee d'une piece - Google Patents
Procede et systeme de modelisation automatisee d'une piece Download PDFInfo
- Publication number
- WO2016038208A2 WO2016038208A2 PCT/EP2015/070886 EP2015070886W WO2016038208A2 WO 2016038208 A2 WO2016038208 A2 WO 2016038208A2 EP 2015070886 W EP2015070886 W EP 2015070886W WO 2016038208 A2 WO2016038208 A2 WO 2016038208A2
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- acquisition
- room
- image
- points
- images
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Ceased
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/521—Depth or shape recovery from laser ranging, e.g. using interferometry; from the projection of structured light
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
- G06T7/33—Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10024—Color image
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
Definitions
- the present invention relates to a method for automated modeling of a part to obtain a two- or three-dimensional representation of part or all of the part. It also relates to a system implementing such a method.
- the field of the invention is the field of the representation of a part, or part of a part, in two or three dimensions, for example in order to provide an architectural plan of the part.
- the modeling of a three-dimensional structure, and in particular of a part, for example in order to obtain a two- or three-dimensional representation of the part, can currently be realized in several ways.
- An object of the present invention is to overcome the aforementioned drawbacks.
- An object of the present invention is to provide a method and system for automatically modeling a part providing a two- or three-dimensional representation of the more accurate part.
- Another object of the present invention is to provide a method and a system for modelizing a part in an automated manner requiring fewer resources.
- Yet another object of the present invention is to propose a method and a system for modeling a part in an automated manner that adapts to the complexity of the part.
- the invention achieves at least one of these objectives by a method for automatically modeling a part, said method comprising the following steps:
- the method according to the invention thus makes it possible to base the modeling of a part on a slice analysis of a 3D point cloud of the part.
- the modeling of a part is carried out gradually layer by layer.
- Such slice analysis allows for modeling with lower computational resources compared to currently known modeling methods and systems in which piece data is analyzed as a whole.
- a wafer analysis of the points representing the part allows a more accurate modeling of a part, for example by decreasing the thickness of each wafer.
- the method according to the invention makes it possible to carry out a more personalized modeling according to the type of the part, by adapting the thickness of the slices to the complexity of the modeled part.
- the part consists of relatively continuous surfaces with no features or objects, it is possible to increase the thickness of the slices without losing precision while reducing the modeling time.
- a part consists of relatively complex surfaces with many features or objects, it is possible to reduce the thickness of the slices to take into account the complexity of the surfaces and thus to achieve accurate modeling of the part.
- color image means a two-dimensional image representing the colorimetric information of the targeted region.
- depth image is understood to mean a two-dimensional image representing the depth information of the targeted region, that is to say for each point represented, the distance between this point and an acquisition point.
- the term "point cloud” is intended to mean a three-dimensional representation comprising the colorimetric information of the color image and the information depth of the depth image.
- the image acquisition step may comprise an acquisition of at least one image comprising at least one color information and at least one depth information, according to a plurality of positions, called acquisition positions, around an axis of rotation passing through a location, called acquisition, in said room.
- the axis of rotation is a vertical axis, that is to say perpendicular to the floor of the room.
- the method according to the invention may preferentially comprise an acquisition of two images, one of said images being a color image comprising color data, and the other of said images being an image. of depth including depth data.
- the method according to the invention may comprise a single image acquisition comprising both color data and depth data.
- the method according to the invention may comprise a step of concatenating at least two images, preferably all the images, acquired for at least two, preferably for all the acquisition positions.
- a concatenation of the images taken for two acquisition positions, in particular consecutive, can be achieved by determining a matrix testifying displacement, rotation (s) and / or translation (s), operated to pass from one of these positions to another. This displacement matrix is then used to concatenate (or merge) the images taken for these two positions.
- the concatenation step may be performed to concatenate / merge the color images between them or the depth images between them, or preferentially for both.
- the image acquisition step may comprise an acquisition of at least one image comprising at least one color information and at least one depth information, according to a plurality of different acquisition locations in the room.
- This feature is particularly advantageous for modeling large parts and allows accurate modeling even in the case of large parts.
- the method according to the invention may then comprise a concatenation step or a merger of the results of two acquisition steps performed at two different acquisition locations.
- a concatenation / fusion step may preferentially comprise the following steps:
- Such a concatenation is relative, that is to say that it allows to recalibrate one of the two clouds of points relative to the other of the two point clouds.
- the concatenation can also be absolute and perform a registration of each cloud of points with respect to a reference or an absolute reference previously fixed.
- the method according to the invention may comprise an acquisition step combining the two variants that have just been defined, namely:
- the acquisition step may comprise, for at least one position or at least one acquisition location, image acquisition (s) of at least two different regions of the room in at least two directions of view different so that two adjacent regions have a common area.
- the two viewing directions are not parallel to each other.
- Such an acquisition may preferentially be carried out by at least two cameras positioned so as to have an identical orientation in a horizontal plane in the room and different orientations in a vertical plane in the room.
- such an acquisition can also be achieved by a single camera repositionable in both a vertical plane and a horizontal plane.
- the acquisition step can perform image acquisition:
- the method according to the invention may further comprise, for at least one position or an acquisition location, a step of concatenation / fusion of the acquisition made for at least two adjacent regions, said step comprising the following steps:
- the one or more points of correspondence can be detected by analyzing the color image, and / or depth, of each zone and can correspond to an object in the room or a feature of a surface of the room and visible in images acquired for each region.
- the detection of a point of correspondence in two images can be performed by any known algorithm, such as for example the algorithm SIFT (Scale Invariant Feature Transform).
- mapping of two images can be performed by the technique known as FLANN (for "Fast Library for Approximate Nearest Neighbors”).
- the method according to the invention may comprise, before the concatenation or melting step, a step of rebalancing the one or more detected linear transformations.
- the method according to the invention makes it possible, during this rebalancing step, to modify at least one, preferably each, of the linear transformations so as to reduce the uncertainties on all the linear transformations detected.
- Such a rebalancing step can be performed by any known algorithm, such as for example the technique known as SLAM (for “Simultaneous localization and mapping” in English).
- SLAM Simultaneous localization and mapping
- the refinement method of the linear transformation can be carried out by any known algorithm, such as for example the algorithm of minimization known as ICP (for "Iterative Closest Point”).
- ICP for "Iterative Closest Point”
- the detection of a plane or a surface in a point cloud can be carried out using a known shape recognition algorithm, such as for example the RANSAC algorithm (for "RANdom SAmple Consensus” in English).
- a known shape recognition algorithm such as for example the RANSAC algorithm (for "RANdom SAmple Consensus” in English).
- the method according to the invention may comprise an adaptation of the brightness of the images acquired during the acquisition step.
- Such an adaptation may, in a nonlimiting manner, implement the HDRI imaging technique (for "high-dynamic-range imaging").
- the reference surface may be a horizontal surface of the room, and more preferably a ceiling or a floor of said room, the detection step comprising a search in the cloud of points a horizontal plane.
- This version of the method according to the invention is particularly advantageous because the ceiling of a room, or more generally a surface of a room whose normal is directed towards the floor of the room, is the surface which has the least particularity or objects. Its detection and characterization is therefore simpler, faster and more precise than the other surfaces composing the part.
- the detection of such a surface can be carried out, in no way limiting, by the RANSAC algorithm applied to the cloud of points in order to detect a horizontal surface.
- the analysis of at least one slice of the point cloud can comprise: a conversion of the points belonging to said slice into a two-dimensional image in a plane perpendicular to the reference axis, such as, for example, a binary or gray-level image;
- the conversion into a two-dimensional image of the points belonging to a slice can be achieved by removing for each of these points the coordinate of the point along the reference axis or an axis parallel to the reference axis and to keep for this point only the coordinates according to the other two axes.
- the search and identification of the segment or segments in the two-dimensional image can be performed by any algorithm known to those skilled in the art, such as for example the Hough technique.
- the step of determining a two- or three-dimensional representation may further comprise an identification of a surface or a wall of said part as a function of the results provided by the analysis of a plurality of, and preferably all the slices.
- the width of the surface or wall corresponds to the length of a segment corresponding to the surface, its position at the position of the segment and its height to the sum of the thickness of the slices on which this segment is present.
- the determination step may further comprise an automated detection of at least one object at at least one surface, or a wall, of said part as a function of results provided by the analysis of a plurality of slices.
- a two-dimensional image obtained for a slice comprises a discontinuity in a segment that means that there is the presence of an object in front of said surface.
- a two-dimensional image obtained for a slice comprises two aligned segments, it means that there is the presence of an object in said surface.
- object means:
- the method according to the invention may further comprise, for at least one detected object, a step of characterizing said object, in order to determine a parameter relative to said object, namely at least one dimension of the object such as the length, the width, depth, or shape of the object
- the characterization of an object can advantageously comprise the following steps for each object:
- the contour detection is carried out both on the binary images representing each of the slices and on the color image, and / or the depth image.
- binary images representing each slice can be used to determine the size of the object, and the color image and / or the depth image can determine whether the object has visual / textural / depth characteristics. similar or different from the wall in which it is located.
- Contour detection can be carried out by any known method, such as for example using the watershed segregation technique.
- the method according to the invention may comprise re for at least one object, a step of determining the nature of the object by a network of neurons with supervised learning.
- the neural network may be previously trained with known objects, and take into account the results of the method according to the invention in the prior modeling of parts.
- the neural network may input at least one of the data, particularly provided by the characterization step, namely:
- This system can in particular be configured to implement all the steps of the method according to the invention.
- the system according to the invention can comprise:
- At least one acquisition means for taking a plurality of images in said room comprising at least one color information and at least one depth information;
- calculation means for implementing the steps of the method according to the invention to obtain from the images acquired a two- or three-dimensional representation of the part.
- the at least one acquisition means may be configured to implement the acquisition step as described above according to the different variants described.
- the at least one acquisition means may comprise at least two cameras rotating about a vertical axis, and oriented in two non-parallel viewing directions and intersecting substantially at the level of a vertical axis.
- the at least one acquisition means may be rotated by any known means, such as a stepper motor.
- FIG. 1 is a schematic representation of the steps of a non-limiting example of a system according to the invention
- FIGURES 2a to 2h are schematic representations of the results provided in certain steps of the method of FIGURE 1100;
- FIGURES 3a and 3b are diagrammatic representations of a nonlimiting example of a neural network implemented in the method according to the invention.
- FIGURE 4 is a schematic representation of a non-limiting example of a system according to the invention.
- FIGURE 1 is a schematic representation of a non-limiting example of a method according to the invention.
- the method 100 shown in FIG. 1 comprises a step 102 for calibrating the camera (s) used for acquiring images in the part.
- this step includes calibrating the cameras together.
- This calibration step can be performed by any known method.
- the method 100 comprises an acquisition phase 104 realizing an acquisition of a plurality of images in the part to be modeled.
- the acquisition phase 104 comprises a step 106 of acquisition of images in an acquisition position around a vertical axis of rotation passing through an acquisition location in the room.
- This step achieves taking a color image and a depth image of two different regions of the room, according to at least two different directions of sight.
- the two viewing directions are chosen so that the two image regions comprise a common area, that is to say an area appearing on the images of each region.
- This step 106 therefore provides for an acquisition position:
- this step 106 can realize an image acquisition of a single region in the room or more than two regions in the room.
- Each color image and / or each depth image is acquired according to a digital imaging technique with a large dynamic range so as to make the image taken independent of differences in brightness.
- Each image taken is memorized in association with
- an identifier of the region for example region 1, region 2, etc.
- an identifier of the acquisition position for example position 1, position 2, etc. ;
- an identifier of the acquisition location for example location 1, location 2, etc.
- step 106 finishes acquiring images at the current acquisition position
- a step 108 determines whether the current acquisition position is the last acquisition position for that acquisition location.
- step 108 If in step 108, the current acquisition position is not the last acquisition position for this acquisition location then a step 110 moves, namely a rotation, to the next acquisition position at this acquisition site. The process resumes in step 106, and so on.
- step 112 determines whether the current acquisition location is the last acquisition location.
- step 112 If in step 112, the current acquisition location is not the last acquisition location then a step 114 moves, especially a translation, to the next acquisition location. The method resumes in step 106 for the new acquisition location.
- step 112 the current acquisition location is the last acquisition location then the acquisition phase 104 is complete.
- the method 100 then comprises a phase 116 for obtaining a scatter plot representing the part as a function of the acquisitions made during the acquisition phase 104.
- This phase 116 comprises a step 118 of concatenating the images of at least two different acquisition regions for the same acquisition position. This concatenation is performed by considering adjacent regions two by two. For two adjacent regions comprising a common area, step 118 performs the following operations: estimating the linear transformation between the two adjacent regions using the positions and orientations of the camera (s) for the two regions;
- This step 118 provides, for an acquisition position, linear transformations that make it possible to concatenate / merge the point clouds for the adjacent regions into a single point cloud comprising all the regions imaged at this acquisition position.
- This step 118 is performed independently for each of the acquisition positions of each of the acquisition locations.
- the obtaining phase 1 16 then comprises a step 120 realizing a computation of the linear transformations that allow the concatenation / fusion of the point clouds for all the acquisition position acqui sition positions.
- this step 120 includes the following operations:
- This step 120 provides for a location for acquiring linear transformations that allow to concatenate / merge the point clouds for all acquisition positions.
- This step 120 is performed for each ack site independently.
- the obtaining phase 1 16 then comprises a step 122 realizing a computation of the linear transformations that allow the concatenation / fusion of the point clouds for all the acquisition locations.
- this step 122 comprises the following operations:
- the obtaining phase 116 then comprises a step 124 realizing an organization and a rebalancing of the different linear transformations with respect to one another in ways to concatenate / merge without any offset and in a precise manner the point clouds, one by one. compared to others.
- the method of the invention uses the technique known as SLAM (for "Simu- laneous localization and mapping” in ang lais).
- the obtaining phase 116 then comprises a step 126 effecting a concatenation / fusion of point clouds using said linear transformations.
- step 126 When step 126 is completed, the method has a scatter plot representing the part.
- FIG. 2a A representation of a point cloud obtained by the obtaining phase 116 is visible in FIG. 2a.
- the method 100 comprises, after the phase 116, a phase 128 for determining a two- or three-dimensional representation of the part, from the point cloud provided by the phase 116.
- the phase 128 comprises a step 130 of detection of a reference surface, which in the present example and in no way limiting, is the ceiling of the room.
- the RANSAC algorithm is applied to points in the scatterplot representing the part with a normal facing downwards, to identify a surface whose normal is directed downwards, and more precisely towards the floor of the room.
- step 130 is visible in FIGURE 2b.
- a step 132 performs a slice-by-slice analysis of the point cloud representing the part along an axis perpendicular to the reference surface, that is to say the ceiling of the room, called the axis of the room. reference.
- a reference x, y, z
- the reference axis will be the z axis.
- step 132 firstly selects all the points of the point cloud representing the part whose coordinate z is between z1 and z2 with z1 the coordinate system along the z axis of the reference surface.
- a representation of a slice of the point cloud is visible in FIGURE 2c.
- the selected points are projected on the (x, y) plane to obtain a two-dimensional image (x, y) of this first slice.
- This two-dimensional image is in this example a black and white image.
- a representation of a two-dimensional image of said slice is visible in FIG. 2d.
- the two-dimensional image is analyzed with the Hough technique to determine the segments on this image. Then a second slice, corresponding to the set of points in the cloud of points whose z coordinate is between z2 and z3 is selected and then analyzed as described, and so on until reaching a slice with no point.
- Each slice may have a thickness, denoted ⁇ , predetermined along the z axis. This thickness may be identical for all the slices or different for at least one slice.
- the thickness ⁇ of one or more slices may be adapted according to the nature of the surfaces of the part. The more complex the surfaces, the smaller the thickness, and vice versa.
- Step 132 provides for each slice analyzed, the segments detected in this slice and for each segment the segment equation, the length of the segment and the position of the segment.
- step 132 is visible in FIGURE 2e.
- a step 134 performs a detection of the surfaces of the part. To do this, step 134 compares the equations of the segments identified for each of the slices and merges the segments having the same equation. Step 134 thus makes it possible to obtain a plurality of unique equations, in the plane (x, y), each corresponding to a surface of the part. The width of each surface thus identified corresponds to the length of the segment, its position at the position of the segment and its height to the sum of the thickness of the slices on which this segment has been identified.
- Step 134 thus provides a plurality of surfaces and for each surface its equation in the (x, y, z) plane.
- a step 136 realizes a detection of object (s), each object being able to be, without limitation:
- each unique equation obtained during step 134 is analyzed for each of the slices, in the case where: - a discontinuity appears in a segment that means that there is the presence of an object in front of said surface
- the method according to the invention detects the height, the width and the depth of said objects. Indeed, by grouping the information, because the object is found on several slices, the method according to the invention deduces the height, width and depth.
- step 136 informs the approximate position of the object.
- step 136 is visible in FIGURE 2f on which a window object, and two cabinet objects have been detected.
- a step 138 performs a precise characterization of each object. For each object, knowing the approximate position of the object, contour detection is performed in the color image. This contour detection provides, for each object, the precise contours, and therefore the position and the dimensions, and possibly at least one characteristic of the object, for example, the color of the object.
- step 138 is visible in FIGURE 2g.
- the window object has been identified on one of the surfaces of the room.
- the method 100 shown in FIGURE 1 includes a step 140 determining the nature of each object.
- step 140 uses a neuron network with supervised learning previously "trained". For each object, the characteristics of the object obtained during step 138 are informed to the neural network which according to its prior learning provides the nature of the object.
- a step 142 provides a three-dimensional or two-dimensional presentation of the part according to a previously indicated point of view. A representation of step 142 is visible in FIGURE 2h.
- FIG. 3a is a schematic representation of a nonlimiting example of a neuron 300 and its connections that can be implemented in the method according to the invention, and in particular during step 140 of the method 100 of FIG. 1.
- FIG. 3b represents an exemplary model 302 for supervised learning to which the neuron network consisting of several neurons 300 is subjected
- the learning of such a neural network is achieved by providing the neural network with the characteristics of a multitude of input objects, and by indicating to it, for each object, the nature of the object that it must provide. output.
- FIGURE 4 is a schematic representation of a non-limiting example of a system according to the invention.
- the system 400 shown in FIGURE 4 comprises two cameras 402 and 404 disposed in a support 406.
- Support 406 is rotatably mounted on a numerically controlled stepper motor 408.
- the system further comprises a computer module 410 connected to the stepper motor 408 and to each of the cameras 402 and 404.
- the computer module 410 comprises a control output of the stepper motor 408, a control output for each of the cameras 402 and 404 to trigger an image capture.
- the computer module 410 further comprises inputs such as:
- an input for the engine 408, used for the motor 408 indicates to the computer module the rotation it performs.
- the computer module 410 further comprises storage means and calculation means for implementing the steps of the method according to the invention, such as for example the steps 118 to 142 of the method 100 described with reference to FIGU RE 1.
- the set of cameras 402 and 404, support 406, engine 408 and computer module is arranged on a tripod 412, whose height is adjustable.
- the height of the tripod 412 is adjusted so that the cameras 402 and 404 are substantially mid-height between the floor and the ceiling of the room.
- the motor 408 rotates the support 406 about an axis of rotation 414 substantially perpendicular to the floor of the room.
- the camera 402 is positioned in a direction of shooting materialized by the downward axis 416 and makes it possible to take images of a first region 418 around the axis 416.
- the camera 404 is positioned in a direction of shooting materialized by the ascending axis 420 and makes it possible to take images of a second region 422 around the axis 420. More particularly, the axis 416 and the axis 420 each have an angle of absolute value substantially equal to a plane parallel to the ground, or horizontal, passing through the center of the support 406.
- the regions respectively 418 and 422, imaged by the cameras 402 and 404 comprise a common area 424.
- Computer module 410 is equipped with instructions for:
- step motor 408 controlling the step motor 408 to position the support 406 in a plurality of acquisition positions around the vertical axis 414, the transition from an acquisition position to the next acquisition position being performed only by rotation;
- each camera 402 and 404 being equipped with:
- a color image sensor providing a color image of the region associated with it
- An infrared sensor providing a depth image of the region associated with it
- the steps of the method according to the invention can be carried out by another computer module that the computer module 410, such as for example a remote server.
- the computer module 410 may be in communication with the remote server via a wireless communication network, such as the mobile telephone network.
- the data stored by the computer module 410 can be transferred to the remote server "manually", that is to say by wired connection of the computer module 410 on the remote server or via USB type of memory storage device.
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Optics & Photonics (AREA)
- Image Analysis (AREA)
- Length Measuring Devices By Optical Means (AREA)
Abstract
La présente invention concerne un procédé (100) pour modéliser de manière automatisée une pièce, comprenant les étapes suivantes : - acquisition (104) de plusieurs images dans ladite pièce comprenant au moins une information de couleur et au moins une information de profondeur, selon une pluralité de positions et/ou emplacements, dites d'acquisition, dans ladite pièce; - obtention (126) à partir de ladite acquisition d'un nuage de points relatifs à ladite pièce à partir desdites images; - détection (130), à partir dudit nuage de points, d'au moins une surface, dite de référence, de ladite pièce; - détermination (132-142) d'une représentation bi- ou tridimensionnelle de ladite pièce par analyse dudit nuage de points tranche par tranche suivant un axe, dit de référence, passant par ladite surface de référence.
Description
« Procédé et système de modélisation automatisée d'une pièce »
Domaine technique
La présente invention concerne un procédé de modélisation automatisée d'une pièce en vue d'obtenir une représentation bi- ou tridimensionnelle d'une partie ou de la totalité de la pièce. Elle concerne également un système mettant en œuvre un tel procédé. Le domaine de l'invention est le domaine de la représentation d'une pièce, ou d'une partie d'une pièce, en deux ou trois dimensions, par exemple en vue de fournir un plan architectural de la pièce.
Etat de la technique
La modélisation d'une structure tridimensionnelle, et en particulier d'une pièce, par exemple en vue d'obtenir une représentation bi- ou tridimensionnelle de la pièce, peut actuellement être réalisée de plusieurs manières.
II existe tout d'abord les procédés manuels ou semi manuels qui consistent à mesurer les dimensions des différents éléments constituant la pièce et leurs positionnements relatifs, puis de réaliser un tracé purement manuel ou par l'intermédiaire d'un outil informatique en vue d'obtenir une représentation de la pièce.
II existe également des procédés automatisés qui, à partir d'images acquises à l'intérieur de la pièce, réalisent une reconstitution des différentes surfaces de la pièce en vue d'en donner une représentation bi- ou tridimensionnelle.
Les procédés manuels sont très consommateurs en temps d'une part pour mesurer les dimensions et la position de différents éléments de la pièce, et d'autre part pour réaliser le tracé de la pièce à partir de ces mesures.
Les procédés automatisés sont moins consommateurs en temps comparés aux procédés manuels. Cependant, les procédés de modélisation actuellement connus souffrent d'autres inconvénients. D'une part, les procédés automatisés actuellement connus ne permettent pas de donner une
représentation suffisamment précise de la pièce, et nécessitent souvent l'intervention d'un opérateur pour compléter ou corriger la représentation fournie par ces procédés. D'autre part, la représentation d'une pièce étant obtenue à partir d'une analyse d'images prises dans la pièce, les procédés automatisés actuellement connus nécessitent des ressources de calcul et de traitement assez lourds et coûteux. Enfin, les procédés et système actuellement connus permettent de réaliser une modélisation d'une pièce de manière identique quelle que soit la nature de la pièce, c'est-à-dire sans tenir compte de la complexité des surfaces constituant la pièce.
Un but de la présente invention est de remédier aux inconvénients précités.
Un but de la présente invention est de proposer un procédé et un système pour modéliser une pièce de manière automatisée fournissant une représentation bi- ou tridimensionnelle de la pièce plus précise.
Un autre but de la présente invention est de proposer un procédé et un système pour modéliser une pièce de manière automatisée nécessitant moins de ressources.
Encore un autre but de la présente invention est de proposer un procédé et un système pour modéliser une pièce de manière automatisée s'adaptant à la complexité de la pièce.
Exposé de l'invention
L'invention permet d'atteindre au moins un de ces objectifs par un procédé pour modéliser de manière automatisée une pièce, ledit procédé comprenant les étapes suivantes :
- acquisition d'une pluralité d'images dans ladite pièce comprenant au moins une information de couleur et au moins une information de profondeur,
- obtention à partir desdites images d'un nuage de points relatifs à ladite pièce ;
- détection, à partir dudit nuage de points, d'au moins une surface, dite de référence, de ladite pièce ;
- détermination d'une représentation bi- ou tridimensionnelle de ladite pièce par analyse dudit nuage de points tranche par tranche suivant un axe, dit de référence, passant par ladite surface de référence, chaque tranche comprenant des points dudit nuage de points sélectionnés selon ledit axe de référence.
Le procédé selon l'invention permet donc de baser la modélisation d'une pièce sur une analyse par tranches d'un nuage de points 3D de la pièce. Autrement dit, selon l'invention, la modélisation d'une pièce est réalisée de manière progressive couche par couche. Une telle analyse par tranche permet de réaliser une modélisation avec des ressources de calcul plus faibles comparé aux procédés et systèmes de modélisation actuellement connus dans lesquels les données relatives à une pièce sont analysées dans leur ensemble.
De plus, une analyse par tranche des points représentant la pièce permet de réaliser une modélisation plus précise d'une pièce, par exemple en diminuant l'épaisseur de chaque tranche.
En outre, le procédé selon l'invention permet de réaliser une modélisation plus personnalisée en fonction du type de la pièce, en adaptant l'épaisseur des tranches à la complexité de la pièce modélisée. Lorsque la pièce est constituée de surfaces relativement continues ne comportant pas de particularités ou d'objets, il est possible d'augmenter l'épaisseur des tranches sans perdre de précision tout en diminuant le temps de modélisation. Lorsqu'une pièce est constituée de surfaces relativement complexes comportant beaucoup de particularités ou d'objets, il est possible de diminuer l'épaisseur des tranches pour prendre en compte la complexité des surfaces et ainsi de réaliser une modélisation précise de la pièce.
Dans la présente invention, par « image couleur » on entend une image bidimensionnelle représentant l'information colorimétrique de la région visée.
Dans la présente invention, par « image profondeur » on entend une image bidimensionnelle représentant l'information profondeur de la région visée, c'est-à-dire pour chaque point représenté, la distance entre ce point et et un point d'acquisition.
Dans la présente invention, par « nuage de points » on entend une représentation tridimensionnelle comprenant l'information colorimétrique de l'image couleur et l'information profondeur de l'image profondeur.
Avantageusement, l'étape d'acquisition d'image peut comprendre une acquisition d'au moins une image comprenant au moins une information de couleur et au moins une information de profondeur, selon une pluralité de positions, dites d'acquisition, autour d'un axe de rotation passant par un emplacement, dit d'acquisition, dans ladite pièce.
Préférentiellement, pour au moins un emplacement d'acquisition, l'axe de rotation est un axe vertical, c'est-à-dire perpendiculaire au sol de la pièce. Selon l'invention, pour chaque position d'acquisition, le procédé selon l'invention peut préférentiellement comprendre une acquisition de deux images, l'une desdites images étant une image couleur comprenant des données couleur, et l'autre desdites images étant une image de profondeur comprenant des données de profondeur.
Alternativement, lorsque le moyen d'acquisition le permet, pour chaque position d'acquisition, le procédé selon l'invention peut comprendre une acquisition d'une image unique comprenant à la fois des données couleur et des données de profondeur.
Le procédé selon l'invention peut comprendre, une étape de concaténation d'au moins deux images, préférentiellement de toutes les images, acquises pour au moins deux, préférentiellement pour toutes les, positions d'acquisition.
Une concaténation des images prises pour deux positions d'acquisitions, en particulier consécutives, peut être réalisée par détermination d'une matrice témoignant du déplacement, rotation(s) et/ou translation(s), opéré pour passer de l'une de ces positions à l'autre. Cette matrice de déplacement est ensuite utilisée pour réaliser la concaténation (ou la fusion) des images prises pour ces deux positions.
L'étape de concaténation peut être réalisée pour concaténer/fusionner les images couleur entre-elles ou les images profondeur entre-elles, ou préférentiellement pour les deux.
Alternativement ou en plus, l'étape d'acquisition d'image peut comprendre une acquisition d'au moins une image comprenant au moins une
information de couleur et au moins une information de profondeur, selon une pluralité d'emplacements d'acquisition différentes dans la pièce.
Cette fonctionnalité est particulièrement avantageuse pour la modélisation de grandes pièces et permet de réaliser une modélisation précise même dans le cas de grandes pièces.
Le procédé selon l'invention peut ensuite comprendre une étape de concaténation ou une fusion des résultats de deux étapes d'acquisition réalisées en deux emplacements d'acquisition différents. Une telle étape de concaténation/fusion peut préférentiellement comprendre les étapes suivantes :
- obtention d'un nuage de points pour chaque emplacement d'acquisition,
- détection d'une même surface de la pièce, ou d'un ou plusieurs points de correspondance, sur chaque nuage de points, par exemple le plafond ou le sol de la pièce,
- détermination d'une transformation linéaire reliant cette surface, respectivement ces points de correspondance, dans un des deux nuages de points, à cette même surface, respectivement ces points de correspondance, dans l'autre des deux nuages de points, et - recalage d'un des deux nuages de points avec ladite transformation linéaire.
Une telle concaténation est relative, c'est-à-dire qu'elle permet de recaler un des deux nuages de points par rapport à l'autre des deux nuages points.
La concaténation peut également être absolue et réaliser un recalage de chaque nuage de points par rapport à un repère ou une référence absolue préalablement fixé.
Le procédé selon l'invention peut comprendre une étape d'acquisition combinant les deux variantes qui viennent d'être définies, à savoir :
- au moins deux emplacements d'acquisition dans la pièce, et
- pour chaque emplacement d'acquisition, au moins une position d'acquisition autour d'un axe de rotation passant par ledit emplacement d'acquisition.
Avantageusement, l'étape d'acquisition peut comprendre, pour au moins une position ou au moins un emplacement d'acquisition, une acquisition d'image(s) d'au moins deux régions différentes de la pièce selon au moins deux directions de visée différentes de sorte que deux régions adjacentes comportent une zone commune.
En particulier, les deux directions de visée ne sont pas parallèles entre- elles.
Une telle acquisition peut préférentiellement être réalisée par au moins deux caméras positionnées de sorte à avoir une orientation identique dans un plan horizontal dans la pièce et des orientations différentes dans un plan vertical dans la pièce.
Alternativement, une telle acquisition peut également être réalisée par une seule et unique caméra repositionnable à la fois dans un plan vertical et dans un plan horizontal. Dans ce cas, l'étape d'acquisition peut réaliser une acquisition d'images :
- selon une première direction pour toutes les positions ou emplacements d'acquisition, puis une autre direction pour toutes les positions ou emplacements d'acquisition, etc. ; ou
- selon toutes les directions pour une position ou emplacement d'acquisition, puis selon toutes les directions pour la position ou l'emplacement d'acquisition suivant(e), etc.
Le procédé selon l'invention peut en outre comprendre, pour au moins une position ou un emplacement d'acquisition, une étape de concaténation/fusion de l'acquisition réalisée pour au moins deux régions adjacentes, ladite étape comprenant les étapes suivantes :
- estimation d'une transformation linéaire entre les deux régions adjacentes à l'aide des positions du ou des outils d'acquisition utilisés pour lesdites régions,
- détection d'au moins un point de correspondance dans la zone commune aux deux régions adjacentes,
- amélioration de l'estimation de ladite transformation linéaire en fonction dudit au moins un point de correspondance,
- affinage de la transformation linéaire à l'aide d'une méthode de minimisation prédéterminée, et
= concaténation ou fusion des nuages de points desdites régions en utilisant ladite transformation linéaire.
Le ou les points de correspondances peuvent être détecté(s) par analyse de l'image couleur, et/ou profondeur, de chaque zone et peut correspondre à un objet dans la pièce ou une particularité d'une surface de la pièce et visible dans les images acquises pour chacune des régions. La détection d'un point de correspondance dans deux images peut être réalisée par n'importe quel algorithme connu, tel que par exemple l'algorithme SIFT (pour « Scale Invariant Feature Transform » en anglais).
La mise en correspondance de deux images peut être réalisée par la technique connue sous le nom FLANN (pour « Fast Library for Approximate Nearest Neighbors » en anglais).
Avantageusement, le procédé selon l'invention peut comprendre, avant l'étape de concaténation ou fusion, une étape de rééquilibrage de la ou des différentes transformations linéaires détectées.
En effet, lorsque plusieurs transformations linéaires sont détectées pour concaténer ou fusionner plusieurs images de plusieurs régions, il existe des incertitudes sur les transformations linéaires détectées de manière individuelle, surtout lorsque le nombre de points de correspondance est faible entre deux régions adjacentes, par exemple dans le cas d'une surface sans variation. Dans ce cas, le procédé selon l'invention permet, lors de cette étape de rééquilibrage, de modifier au moins une, préférentiellement chacune, des transformations linéaires de sorte à diminuer les incertitudes sur l'ensemble des transformations linéaires détectées.
Une telle étape de rééquilibrage peut être réalisée par n'importe quel algorithme connu, tel que par exemple la technique connue sous le nom de SLAM (pour « Simultaneous localization and mapping » en anglais).
La méthode d'affinage de la transformation linéaire peut être réalisée par n'importe quel algorithme connu, tel que par exemple l'algorithme de
minimisation connu sous le nom de ICP (pour « Itérative Closest Point » en anglais).
Selon l'invention, la détection d'un plan ou d'une surface dans un nuage de points peut être réalisée en utilisant un algorithme de reconnaissance de forme connu, tel que par exemple l'algorithme RANSAC (pour « RANdom SAmple Consensus » en anglais).
Avantageusement, le procédé selon l'invention peut comprendre une adaptation de la luminosité des images acquises lors de l'étape d'acquisition.
Cela permet de rendre le procédé robuste contre les variations de luminosité entre deux positions d'acquisition, et/ou deux emplacements d'acquisitions, et/ou entre deux moments d'acquisitions dans la journée.
Une telle adaptation peut, de manière non limitative, mettre en œuvre la technique d'imagerie HDRI (pour « High-dynamic-range imaging » en anglais).
Selon une version particulièrement préférée de l'invention, la surface de référence peut être une surface horizontale de la pièce, et plus préférentiellement un plafond ou un sol de ladite pièce, l'étape de détection comprenant une recherche dans le nuage de points d'un plan horizontal.
Cette version du procédé selon l'invention est particulièrement avantageuse car le plafond d'une pièce, ou plus généralement une surface d'une pièce dont la normale est dirigée vers le sol de la pièce, est la surface qui comporte le moins de particularité ou d'objets. Sa détection et sa caractérisation est donc plus simple, plus rapide et plus précise que les autres surfaces composant la pièce.
La détection d'une telle surface peut être réalisée, de manière nullement limitative, par l'algorithme RANSAC appliqué au nuage de points en vue de détecter une surface horizontale.
La reconnaissance d'une telle surface permet d'aligner le nuage de points de telle sorte que l'axe de référence soit vertical pour obtenir les murs verticaux et le plafond et sol horizontaux.
Avantageusement, l'analyse d'au moins une tranche du nuage de points peut comprendre :
- une conversion des points appartenant à ladite tranche en une image bidimensionnelle dans un plan perpendiculaire à l'axe de référence, telle que par exemple une image binaire ou en niveau de gris ;
- une recherche d'au moins un segment, préférentiellement de tous les segments, présent(s) sur ladite image ; et
La conversion en une image bidimensionnelle des points appartenant à une tranche peut être réalisée en supprimant pour chacun de ces points la coordonnée du point selon l'axe de référence ou un axe parallèle à l'axe de référence et de conserver pour ce point uniquement les coordonnées selon les deux autres axes.
La recherche et l'identification du ou des segments dans l'image bidimensionnelle peut être réalisée par n'importe quel algorithme connu de l'homme du métier, tel que par exemple la technique de Hough.
L'étape de détermination d'une représentation bi- ou tridimensionnelle peut en outre comprendre une identification d'une surface ou d'une paroi de ladite pièce en fonction des résultats fournis par l'analyse d'une pluralité de, et préférentiellement de toutes les, tranches.
La largeur de la surface ou de la paroi correspond à la longueur d'un segment correspondant à la surface, sa position à la position du segment et sa hauteur à la somme de l'épaisseur des tranches sur lesquelles ce segment est présent. Avantageusement, l'étape de détermination peut en outre comprendre une détection automatisée d'au moins un objet au niveau d'au moins une surface, ou d'une paroi, de ladite pièce en fonction de résultats fournis par l'analyse d'une pluralité de de tranches.
En effet, lorsqu'une image bidimensionnelle obtenue pour une tranche comprend une discontinuité dans un segment cela veut dire qu'il y a la présence d'un objet devant ladite surface.
De plus, lorsqu'une image bidimensionnelle obtenue pour une tranche comprend deux segments alignés cela veut dire qu'il y a la présence d'un objet dans ladite surface.
Dans la présente invention, par « objet » on entend :
- une porte se trouvant dans une paroi de la pièce,
- une fenêtre se trouvant dans une paroi de la pièce,
- un objet accroché sur une paroi de la pièce,
- un objet disposé au sol contre une paroi de la pièce, ou
- une forme réalisée dans une paroi de la pièce.
Le procédé selon l'invention peut en outre comprendre, pour au moins un objet détecté, une étape de caractérisation dudit objet, en vue de déterminer un paramètre relatif audit objet, à savoir au moins une dimension de l'objet telle que la longueur, la largeur, la profondeur de l'objet ou une forme composant l'objet.
Suivant un exemple de réalisation particulier et nullement limitatif, la caractérisation d'un objet peut avantageusement comprendre les étapes suivantes pour chaque objet :
- détermination d'une position approximative, et éventuellement des dimensions approximatives, dudit objet par analyse d'au moins une image bidimensionnelle fournie pour au moins une tranche ;
- en fonction de ladite position approximative, et éventuellement desdites dimensions approximatives, sélection d'une image de couleur et/ou d'une image profondeur représentant une zone englobant ledit objet ;
- détection de contours relatifs audit objet sur ladite image couleur et/ou sur ladite image profondeur.
Préférentiellement, la détection de contour est réalisée à la fois sur les images binaires représentant chacune des tranches et sur l'image couleur, et/ou l'image profondeur. Cela permet d'obtenir plus de données sur l'objet. Par exemple, les images binaires représentant chacune des tranches peuvent être utilisées pour déterminer la dimension de l'objet et l'image couleur et/ou l'image profondeur permet de déterminer si l'objet présente des caractéristiques visuelles/texturales/ou de profondeur semblables ou différentes de la paroi dans laquelle il se trouve.
La détection de contour peut être réal isée par n'importe quel procédé connu, tel q ue par exemple en utilisant la techniq ue de seg mentation par watershed . Avantageusement, le procédé selon l'invention peut comprend re pour au moins un objet, une étape de détermination de la nature d ud it objet par un réseau de neurones à apprentissage supervisé.
Le réseau de neurones peut être entraîné préalablement avec des objets connus, et prendre en compte les résultats du procédé selon l'invention dans la modélisation préalable de pièces.
Le réseau de neurones peut prendre en entrée au moins une des données, en particul ier fournie par l 'étape de caractérisation, à savoir :
- au moins une d imension de l'objet,
- une position de l 'objet,
- une couleur de l'objet,
- un contou r bi- ou tridimensionnel de l 'objet,
- etc.
Selon un autre aspect de l'invention il est proposé un système pour modél iser de manière automatisée une pièce.
Ce système peut en particul ier être config uré pour mettre en œuvre toutes les étapes du procédé selon l 'invention .
Le système selon l 'invention peut comprendre :
- au moins un moyen d'acquisition pour prend re une pluralité d 'images dans lad ite pièce comprenant au moins une information de couleur et au moins une information de profondeur ; et
- des moyens de calcul pour mettre en œuvre les étapes d u procédé selon l'invention pour obtenir à partir des images acquises une représentation bi- ou tridimensionnel le de la pièce.
L'au moins un moyen d 'acq uisition peut être configuré pour mettre en œuvre l'étape d 'acq uisition telle q ue décrite plus haut suivant les d ifférentes variantes décrites.
En particulier, et de manière nullement limitative, l'au moins un moyen d'acquisition peut comprendre au moins deux caméras rotatives autour d'un axe vertical, et orientées suivant deux directions de visée non parallèles entre elles et se croisant sensiblement au niveau d'un axe vertical.
L'au moins un moyen d'acquisition peut être mis en rotation par n'importe quel moyen connu, tel qu'un moteur pas à pas.
Description des figures et modes de réalisation
D'autres avantages et caractéristiques apparaîtront à l'examen de la description détaillée d'exemples nullement limitatifs, et des dessins annexés sur lesquels :
- la FIGURE 1 est une représentation schématique des étapes d'un exemple non limitatif d'un système selon l'invention ;
- les FIGURES 2a à 2h sont des représentations schématiques des résultats fournis lors de certaines étapes du procédé de la FIGURE 1 100 ;
- les FIGURES 3a et 3b sont des représentations schématiques d'un exemple non limitatif d'un réseau de neurones mis en œuvre dans le procédé selon l'invention ; et
- la FIGURE 4 est une représentation schématique d'un exemple non limitatif d'un système selon l'invention.
Il est bien entendu que les modes de réalisation qui seront décrits dans la suite ne sont nullement limitatifs. On pourra notamment imaginer des variantes de l'invention ne comprenant qu'une sélection de caractéristiques décrites par la suite isolées des autres caractéristiques décrites, si cette sélection de caractéristiques est suffisante pour conférer un avantage technique ou pour différencier l'invention par rapport à l'état de la technique antérieur. Cette sélection comprend au moins une caractéristique de préférence fonctionnelle sans détails structurels, ou avec seulement une partie des détails structurels si cette partie uniquement est suffisante pour conférer un avantage technique ou pour différencier l'invention par rapport à l'état de la technique antérieur.
En particulier toutes les variantes et tous les modes de réalisation décrits sont combinables entre eux si rien ne s'oppose à cette combinaison sur le plan technique.
Sur les figures, les éléments communs à plusieurs figures conservent la même référence.
La FIGURE 1 est une représentation schématique d'un exemple non limitatif d'un procédé selon l'invention.
Le procédé 100 représenté sur la FIGURE 1 comprend une étape 102 de calibration de la ou des caméras utilisées pour l'acquisition d'images dans la pièce. De plus, s'il y a plus d'une caméra, cette étape comprend la calibration des caméras entre elles. Cette étape de calibration peut être réalisée par n'importe quel procédé connu.
Puis, le procédé 100 comprend une phase 104 d'acquisition réalisant une acquisition d'une pluralité d'images dans la pièce à modéliser.
La phase 104 d'acquisition comprend une étape 106 d'acquisition d'images en une position d'acquisition autour d'un axe de rotation vertical passant par un emplacement d'acquisition dans la pièce. Cette étape réalise une prise d'une image couleur et d'une image profondeur de deux régions différentes de la pièce, suivant au moins deux directions de visée différentes. Les deux directions de visée sont choisies de sorte que les deux régions imagées comportent une zone commune, c'est-à-dire une zone apparaissant sur les images de chaque région. Cette étape 106 fournit donc pour une position d'acquisition :
- une image couleur, une image profondeur et un nuage de points d'une première région, et
- une image couleur, une image profondeur et un nuage de points d'une deuxième région comprenant une zone commune avec la première région.
Bien entendu, cette étape 106 peut réaliser une acquisition d'image d'une unique région dans la pièce ou de plus de deux régions dans la pièce.
Chaque image couleur et/ou chaque image profondeur est acquise suivant une technique numérique d'imagerie à grande gamme dynamique de sorte à rendre l'image prise indépendante des différences de luminosité.
Chaque image prise est mémorisée en association avec
- un identifiant de la région, par exemple région 1, région 2, etc.
- un identifiant de la position d'acquisition, par exemple position 1, position 2, etc. ; et
- un identifiant de l'emplacement d'acquisition, par exemple emplacement 1, emplacement 2, etc.
Puis, lorsque l'étape 106 termine l'acquisition d'images à la position d'acquisition actuelle, une étape 108 détermine si la position d'acquisition actuelle est la dernière position d'acquisition pour cet emplacement d'acquisition.
Si à l'étape 108, la position d'acquisition actuelle n'est pas la dernière position d'acquisition pour cet emplacement d'acquisition alors une étape 110 réalise un déplacement, à savoir une rotation, vers la prochaine position d'acquisition à cet emplacement d'acquisition. Le procédé reprend à l'étape 106, et ainsi de suite.
Si à l'étape 108, la position d'acquisition actuelle est la dernière position d'acquisition pour cet emplacement d'acquisition alors une étape 112 détermine si l'emplacement d'acquisition actuel est le dernier emplacement d'acquisition.
Si à l'étape 112, l'emplacement d'acquisition actuel n'est pas le dernier emplacement d'acquisition alors une étape 114 réalise un déplacement, en particulier une translation, vers le prochain emplacement d'acquisition. Le procédé reprend à l'étape 106 pour le nouvel emplacement d'acquisition.
Si à l'étape 112, l'emplacement d'acquisition actuel est le dernier emplacement d'acquisition alors la phase 104 d'acquisition est terminée.
Le procédé 100 comprend ensuite une phase 116 d'obtention d'un nuage de points représentant la pièce en fonction des acquisitions réalisées lors de la phase d'acquisition 104.
Cette phase 116 comprend une étape 118 de concaténation des images d'au moins deux régions d'acquisition différentes pour une même position d'acquisition. Cette concaténation est réalisée en considérant les régions adjacentes deux à deux. Pour deux régions adjacentes comprenant une zone commune, l'étape 118 réalise les opérations suivantes :
- estimation de la transformation linéaire entre les deux régions adjacentes à l'aide des positions et orientations de la ou des caméras pour les deux rég ions ;
- détection, par l'algorithme SIFT, de plusieurs points d 'intérêt sur chacune des images dans la zone commune, et
- création des points de correspondance, par la techniq ue FLAN N , à partir des points d'intérêt entre les deux images,
- extraction des points trid imensionnels correspondants aux points de correspondance sur chacune des deux images, et
- estimation de la transformation linéaire par la méthode des moind res carrés,
- affinage de la transformation linéaire à l'aide de la méthode ICP (pour « Itérative Closest Point » en ang lais) . Cette étape 118 fournit pour une position d 'acq uisition des transformations linéaires q ui permettent de concaténer/fusionner les nuages de points pour les rég ions adjacentes en un nuage de points unique comprenant toutes les régions imagées à cette position d'acquisition .
Cette étape 118 est réal isée de manière indépendante pour chacune des positions d 'acq uisition de chacu n des emplacements d 'acquisition .
La phase d 'obtention 1 16 comprend ensu ite une étape 120 réal isant u n calcul des transformations linéaires q ui permettent les concaténation/fusion des nuages de points pour toutes les positions d'acq uisition d'un emplacement d 'acq uisition .
Pour ce faire, les positions d'acquisitions sont considérées deux à deux et cette étape 120 comprend les opérations suivantes :
- estimation de la transformation linéaire entre les deux positions adjacentes à l'aide de l 'outil d 'acq uisition
- détection, par l'algorithme SIFT, de plusieurs points d 'intérêt sur chacune des images dans une zone commune aux deux positions adjacentes, et
- création des points de correspondance, par la techniq ue FLAN N , à partir des points d'intérêt entre les deux images,
- extraction des points trid imensionnels correspondants aux points de correspondance sur chacune des deux images,
- estimation de la transformation linéaire par la méthode des moind res carrés,
- affinage de la transformation linéaire à l'aide de la méthode ICP (pour « Itérative Closest Point » en ang lais) .
Cette étape 120 fourn it pour un emplacement d'acquisition des transformations linéaires q ui permettent de concaténer/fusionner les nuages de points pour toutes les positions d 'acq uisition .
Cette étape 120 est réal isée pou r chaq ue emplacement d 'acq uisition de manière indépendante.
La phase d 'obtention 1 16 comprend ensuite une étape 122 réal isant u n calcul des transformations linéaires q ui permettent les concaténation/fusion des nuages de points pour tous les emplacements d 'acquisition .
Pour ce faire, les emplacements d 'acq uisitions sont considérés deux à deux et cette étape 122 comprend les opérations suivantes :
- détection , par l 'algorithme RANSAC, d'une même surface dans la pièce, par exemple le plafond de la pièce, sur chacune des deux images profondeur, ou nuage de points, associées à chacun des deux emplacements, et
- détermination d 'une transformation linéaire reliant cette surface dans un des deux nuages de points, à cette même surface dans l'autre des deux nuages de points.
La phase d 'obtention 116 comprend ensuite une étape 124 réal isant une organisation et un rééq uilibrage des d ifférentes transformations l inéaires les unes par rapport aux autres de manières à concaténer/fusionner sans décalage et de manière précise les nuages de points les uns par rapport aux autres.
Pour ce faire, le procédé d'invention utilise la techniq ue connue sous le nom de SLAM (pou r « Simu ltaneous local ization and mapping » en ang lais) .
La phase d'obtention 116 comprend ensuite une étape 126 réalisant une concaténation/fusion des nuages de points en utilisant lesdites transformations linéaires.
Lorsque l'étape 126 est terminée, le procédé dispose d'un nuage de points représentant la pièce.
Une représentation d'un nuage de point obtenu par la phase d'obtention 116 est visible sur la FIGURE 2a.
Le procédé 100 comprend, suite à la phase 116, une phase 128 de détermination d'une représentation bi- ou tridimensionnelle de la pièce, à partir du nuage de points fournis par la phase 116.
La phase 128 comprend une étape 130 de détection d'une surface de référence, qui dans l'exemple présent et de manière nullement limitative, est le plafond de la pièce.
Pour ce faire, l'algorithme RANSAC est appliqué aux points du nuage de points représentant la pièce ayant une normale dirigée vers le bas, pour identifier une surface dont la normale est dirigée vers le bas, et plus précisément vers le sol de la pièce.
Une représentation de l'étape 130 est visible sur la FIGURE 2b.
Lorsque la surface de référence est détectée, une étape 132 réalise une analyse tranche par tranche du nuage de points représentant la pièce suivant un axe perpendiculaire à la surface de référence, c'est-à-dire au plafond de la pièce, appelée axe de référence. Dans la suite de la description, on adoptera un repère (x,y,z) et l'axe de référence sera l'axe z.
Concrètement, l'étape 132 sélectionne tout d'abord tous les points du nuage de points représentant la pièce dont la cordonnée z se trouve entre zl et z2 avec zl la cordonnée selon l'axe z de la surface de référence. Une représentation d'une tranche du nuage de point est visible sur la FIGURE 2c.
Les points sélectionnés sont projetés sur le plan (x,y) pour obtenir une image à deux dimensions (x,y) de cette première tranche. Cette image bidimensionnelle est dans le présent exemple une image en noir et blanc. Une représentation d'une image bidimensionnelle de ladite tranche est visible sur la FIGURE 2d.
L'image bidimensionnelle est analysée avec la technique de Hough pour déterminer les segments sur cette image.
Ensuite une deuxième tranche, correspondant à l'ensemble des points dans le nuage de points dont la coordonnée z se trouve entre z2 et z3 est sélectionnée puis analysée telle que décrite, et ainsi de suite jusqu'à atteindre une tranche ne comprenant aucun point.
Chaque tranche peut avoir une épaisseur, notée Δζ, prédéterminée, suivant l'axe z. Cette épaisseur peut être identique pour toutes les tranches ou différente pour au moins une tranche.
L'épaisseur Δζ d'une ou des tranches peut être adaptée en fonction de la nature des surfaces de la pièce. Plus les surfaces présentent une architecture complexe, plus l'épaisseur sera petite, et vice versa.
L'étape 132 fournit pour chaque tranche analysée, les segments détectés dans cette tranche et pour chaque segment l'équation du segment, la longueur du segment et la position du segment.
Une représentation de l'étape 132 est visible sur la FIGURE 2e.
Une étape 134 réalise une détection des surfaces de la pièce. Pour ce faire, l'étape 134 compare les équations des segments identifiés pour chacune des tranches et fusionne les segments présentant la même équation. L'étape 134 permet ainsi d'obtenir une pluralité d'équations uniques, dans le plan (x,y), correspondant chacune à une surface de la pièce. La largeur de chaque surface ainsi identifiée correspond à la longueur du segment, sa position à la position du segment et sa hauteur à la somme de l'épaisseur des tranches sur lesquelles ce segment a été identifié.
L'étape 134 fournit donc une pluralité de surfaces et pour chaque surface, son équation dans la plan (x,y,z).
Ensuite une étape 136 réalise une détection d'objet(s), chaque objet pouvant être, de manière non limitative :
■ une porte se trouvant dans une paroi de la pièce,
■ une fenêtre se trouvant dans une paroi de la pièce, ■ un objet accroché sur une paroi de la pièce,
■ un objet disposé au sol contre une paroi de la pièce, ou
■ une forme réalisée dans une paroi de la pièce.
Pour ce faire chaque équation unique obtenue lors de l'étape 134 est analysée pour chacune des tranches, dans le cas où :
- une discontinuité apparaît dans un segment cela veut dire qu'il y a la présence d'un objet devant ladite surface
- deux segments sont alignés, cela veut dire qu'il y a la présence d'un objet dans ladite surface
En analysant l'ensemble des tranches, le procédé selon l'invention détecte la hauteur, la largeur et la profondeur desdits objets. En effet, en regroupant les informations, du fait que l'objet se retrouve sur plusieurs tranches, le procédé selon l'invention déduit la hauteur, la largeur et la profondeur.
Ainsi tous les objets sont identifiés et pour chaque objet, l'étape 136 renseigne la position approximative de l'objet.
Une représentation de l'étape 136 est visible sur la FIGURE 2f sur laquelle un objet fenêtre, et deux objets armoire ont été détectés.
Une étape 138 réalise une caractérisation précise de chaque objet. Pour chaque objet, en connaissant la position approximative de l'objet, une détection de contour est réalisée dans l'image couleur. Cette détection de contour fournit, pour chaque objet, les contours précis, et donc la position et les dimensions, et éventuellement au moins une caractéristique de l'objet, par exemple, la couleur de l'objet.
Une représentation de l'étape 138 est visible sur la FIGURE 2g. Sur cette Figure 2g l'objet fenêtre a été identifié sur une des surfaces de la pièce.
Le procédé 100 représenté sur la FIGURE 1 comprend une étape 140 déterminant la nature de chaque objet. Pour ce faire, l'étape 140 utilise un réseau de neurones à apprentissage supervisé préalablement « entraîné » . Pour chaque objet, les caractéristiques de l'objet obtenues lors de l'étape 138 sont renseignées au réseau de neurones qui en fonction de son apprentissage préalable fournit la nature de l'objet. Lorsque toutes les surfaces et tous les objets de la pièce sont identifiés et caractérisés une étape 142 fournit une présentation tridimensionnelle ou bidimensionnelle de la pièce suivant un point de vue préalablement renseigné. Une représentation de l'étape 142 est visible sur la FIGURE 2h .
La FIGURE 3a est une représentation schématique d'un exemple non limitatif d'un neurone 300 et de ses connections pouvant être mis en œuvre dans le procédé selon l'invention, et en particulier lors de l'étape 140 du procédé 100 de la FIGURE 1.
La FIGURE 3b représente un exemple de modèle 302 d'apprentissage supervisé auquel est soumis le réseau de neurones constitué de plusieurs neurones 300
L'apprentissage d'un tel réseau de neurones est réalisé en fournissant au réseau de neurones les caractéristiques d'une multitude d'objets en entrée, et en lui indiquant, pour chaque objet, la nature de l'objet qu'il doit fournir en sortie.
La FIGURE 4 est une représentation schématique d'un exemple non limitatif d'un système selon l'invention .
Le système 400 représenté sur la FIGURE 4 comprend deux caméras 402 et 404 disposées dans un support 406.
Le support 406 est agencé rotatif sur un moteur pas à pas 408 à commande numérique.
Le système comprend en outre un module informatique 410 relié au moteur pas à pas 408 et à chacune des caméras 402 et 404.
Le module informatique 410 comprend une sortie de commande du moteur pas à pas 408, une sortie de commande pour chacune des caméras 402 et 404 pour déclencher une prise d'image.
Le module informatique 410 comprend en outre des entrées telles que :
- une entrée pour chaque caméra 402 et 404 permettant de recevoir de chaque caméra des images prises par cette dernière ; et
- éventuellement, une entrée pour le moteur 408, utilisée pour que le moteur 408 indique au module informatique la rotation qu'il effectue.
Le module informatique 410 comprend en outre des moyens de mémorisation et des moyens de calcul pour mettre en œuvre les étapes du procédé selon l'invention, tel que par exemple les étapes 118 à 142 du procédé 100 décrit en référence à la FIGU RE 1.
L'ensemble caméras 402 et 404, support 406, moteur 408 et module informatique est disposé sur un trépied 412, dont la hauteur est réglable. Préférentiellement, la hauteur du trépied 412 est réglée de sorte que les caméras 402 et 404 se trouvent sensiblement à mi-hauteur entre le sol et le plafond de la pièce.
Le moteur 408 permet de déplacer en rotation le support 406 autour d'un axe de rotation 414 sensiblement perpendiculaire au sol de la pièce.
La caméra 402 est positionnée suivant une direction de prise de vue matérialisée par l'axe 416 descendante et permet de prendre des images d'une première région 418 autour de l'axe 416. La caméra 404 est positionnée suivant une direction de prise de vue matérialisée par l'axe 420 ascendante et permet de prendre des images d'une deuxième région 422 autour de l'axe 420. Plus particulièrement, l'axe 416 et l'axe 420 présentent chacun un angle de valeur absolue sensiblement égale par rapport à un plan parallèle au sol, ou horizontale, passant par le centre du support 406. Les régions respectivement 418 et 422, imagées par les caméras 402 et 404 comportent une zone commune 424.
Le module informatique 410 est équipé d'instructions pour :
- commander le moteur pas à pas 408 en vue de positionner le support 406 en une pluralité de positions d'acquisition autour de l'axe vertical 414, le passage d'une position d'acquisition à la position d'acquisition suivante étant réalisée uniquement par rotation ;
- déclencher une prise d'images par chaque caméra 402 et 404, pour chaque position d'acquisition, chaque caméra 402 et 404 étant équipée :
d'un capteur d'image couleur fournissant une image couleur de la région qui lui est associée, et
■ d'un capteur infrarouge fournissant une image de profondeur de la région qui lui est associée ;
- mémoriser l'image couleur et l'image profondeur prises par chaque caméra pour chaque position d'acquisition.
Alternativement, les étapes du procédé selon l'invention peuvent être réalisées par un autre module informatique que le module informatique 410,
tel que par exemple un serveur distant. Dans ce cas, selon un premier exemple le module informatique 410 peut être en communication avec le serveur distant par l'intermédiaire d'un réseau de communication sans fil, tel que le réseau de téléphonie mobile. Selon un deuxième exemple, les données mémorisées par le module informatique 410 peuvent être transférées vers le serveur distant de manière « manuelle », c'est-à-dire par connexion filaire du module informatique 410 sur le serveur distant ou par l'intermédiaire d'un moyen de mémorisation nomade de type clef USB.
Bien sûr, l'invention n'est pas limitée aux exemples qui viennent d'être décrits et de nombreux aménagements peuvent être apportés à ces exemples sans sortir du cadre de l'invention .
Claims
1. Procédé ( 100) pour modéliser de manière automatisée une pièce, ledit procédé ( 100) comprenant les étapes suivantes :
- acquisition ( 104) d'une pluralité d'images dans ladite pièce comprenant au moins une information de couleur et au moins une information de profondeur ;
- obtention ( 116) à partir desdites images d'un nuage de points relatifs à ladite pièce ;
- détection ( 130), à partir dudit nuage de points, d'au moins une surface, dite de référence, de ladite pièce ;
- détermination ( 132- 142) d'une représentation bi- ou tridimensionnelle de ladite pièce par analyse dudit nuage de points tranche par tranche suivant un axe, dit de référence, passant par ladite surface de référence, chaque tranche comprenant des points dudit nuage de points sélectionnés selon ledit axe de référence.
2. Procédé ( 100) selon la revendication 1, caractérisé en ce que l'étape ( 104) d'acquisition d'image comprend une acquisition d'au moins une image comprenant au moins une information de couleur et au moins une information de profondeur, selon une pluralité de positions, dites d'acquisition, autour d'un axe de rotation passant par un emplacement, dit d'acquisition, dans ladite pièce.
3. Procédé ( 100) selon l'une quelconque des revendications précédentes, caractérisé en ce que l'étape ( 104) d'acquisition d'image comprend une acquisition d'au moins une image comprenant au moins une information de couleur et au moins une information de profondeur, selon une pluralité d'emplacements d'acquisition différentes dans la pièce.
4. Procédé ( 100) selon les revendications 2 ou 3, caractérisé en ce que l'étape d'acquisition ( 104) comprend, pour au moins une position d'acquisition, respectivement au moins un emplacement d'acquisition, une acquisition ( 106) d'image(s) d'au moins deux régions (418, 422) différentes selon au moins
deux directions (416, 420) de visée différentes de sorte que deux régions adjacentes (418, 422) comportent une zone commune (424).
5. Procédé (100) selon la revendication précédente, caractérisé en ce qu'il comprend, pour au moins une position d'acquisition, respectivement au moins un emplacement d'acquisition, une étape (118,126) de concaténation/fusion de l'acquisition réalisée pour au moins deux régions adjacentes (418, 422), ladite étape (118,126) comprenant les étapes suivantes :
- estimation d'une transformation linéaire entre lesdites régions adjacentes à l'aide des positions du ou des outils d'acquisition utilisés pour lesdites régions,
- détection d'au moins un point de correspondance dans la zone commune aux deux régions adjacentes,
- amélioration de l'estimation de ladite transformation linéaire en fonction dudit au moins un point de correspondance,
- affinage de la transformation linéaire à l'aide d'une méthode de minimisation prédéterminée, et
= concaténation ou fusion des nuages de points desdites régions en utilisant ladite transformation linéaire.
6. Procédé (100) selon l'une quelconque des revendications précédentes, caractérisé en ce qu'il comprend une adaptation de la luminosité des images acquises lors de l'étape d'acquisition (106).
7. Procédé (100) selon l'une quelconque des revendications précédentes, caractérisé en ce que la surface de référence correspond à une surface horizontale ayant une normale verticale, en particulier un plafond ou un sol de ladite pièce, l'étape de détection (130) comprenant une recherche dans le nuage de points d'un plan ayant une normale dirigée vers le bas, en particulier vers le sol de la pièce.
8. Procédé (100) selon l'une quelconque des revendications précédentes, caractérisé en ce que l'analyse (132) d'au moins une tranche du nuage de points comprend :
- une conversion des points appartenant à ladite tranche en une image bidimensionnelle dans un plan perpendiculaire à l'axe de référence ; et
- une recherche d'au moins un segment, préférentiellement de tous les segments, présent(s) sur ladite image.
9. Procédé (100) selon l'une quelconque des revendications précédentes, caractérisé en ce que l'étape de détermination (132-142) comprend une identification (134) d'une surface de ladite pièce en fonction des résultats fournis par l'analyse d'une pluralité de de tranches.
10. Procédé (100) selon l'une quelconque des revendications précédentes, caractérisé en ce que l'étape de détermination (132-142) comprend une détection (136) d'au moins un objet au niveau d'au moins une surface de ladite pièce en fonction de résultats fournis par l'analyse d'une pluralité de tranches.
11. Procédé (100) selon la revendication précédente, caractérisé en ce qu'il comprend pour au moins un objet, une étape (138) de caractérisation dudit objet, ladite caractérisation comprenant les étapes suivantes pour chaque objet :
- détermination d'une position approximative, et éventuellement des dimensions approximatives, dudit objet ;
- en fonction de ladite position approximative, et éventuellement desdites dimensions approximatives, sélection d'une image de couleur ou de profondeur représentant une zone englobant ledit objet ;
- détection de contours relatifs audit objet sur ladite image couleur ou de profondeur.
12. Procédé (100) selon l'une quelconque des revendications 10 ou 11, caractérisé en ce qu'il comprend, pour au moins un objet, une étape (140) de détermination de la nature dudit objet par un réseau de neurones (300) à apprentissage supervisé.
13. Procédé ( 100) selon l'une quelconque des revendications 10 à 12, caractérisé en ce qu'au moins un objet correspond à :
- une porte se trouvant dans une paroi de la pièce,
- une fenêtre se trouvant dans une paroi de la pièce,
- un objet accroché sur une paroi de la pièce,
- un objet disposé au sol contre une paroi de la pièce, ou
- une forme réalisée dans une paroi de la pièce.
14. Système (400) pour modéliser de manière automatisée une pièce, en particulier configuré pour mettre en œuvre toutes les étapes du procédé (100) selon l'une quelconque des revendications précédentes, ledit système (400) comprenant :
- au moins un moyen (402, 404) d'acquisition pour prendre une pluralité d'images dans ladite pièce comprenant au moins une information de couleur et au moins une information de profondeur ; et
- des moyens (410) de calcul pour mettre en œuvre les étapes du procédé ( 100) selon l'une quelconque des revendications précédentes pour obtenir à partir des images acquises une représentation bi- ou tridimensionnelle de la pièce.
15. Système (400) selon la revendication précédente, caractérisé en ce que l'au moins un moyen d'acquisition comprend au moins deux caméras (402, 404) rotatives autour d'un axe vertical (414), et orientées suivant deux directions (416, 420) de visée non parallèles entre elles et se croisant sensiblement au niveau d'un axe vertical (414) .
Applications Claiming Priority (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| FR1458550 | 2014-09-11 | ||
| FR1458550A FR3025918B1 (fr) | 2014-09-11 | 2014-09-11 | Procede et systeme de modelisation automatisee d'une piece |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| WO2016038208A2 true WO2016038208A2 (fr) | 2016-03-17 |
| WO2016038208A3 WO2016038208A3 (fr) | 2016-06-23 |
Family
ID=52016771
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| PCT/EP2015/070886 Ceased WO2016038208A2 (fr) | 2014-09-11 | 2015-09-11 | Procede et systeme de modelisation automatisee d'une piece |
Country Status (2)
| Country | Link |
|---|---|
| FR (1) | FR3025918B1 (fr) |
| WO (1) | WO2016038208A2 (fr) |
Cited By (7)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| EP3373168A1 (fr) * | 2017-03-10 | 2018-09-12 | General Electric Company | Systèmes et procédés permettant d'utiliser un nuage de points de cao 3d pour créer automatiquement un modèle de fluide |
| CN109614857A (zh) * | 2018-10-31 | 2019-04-12 | 百度在线网络技术(北京)有限公司 | 基于点云的杆状物识别方法、装置、设备及存储介质 |
| US10803211B2 (en) | 2017-03-10 | 2020-10-13 | General Electric Company | Multiple fluid model tool for interdisciplinary fluid modeling |
| US10867085B2 (en) | 2017-03-10 | 2020-12-15 | General Electric Company | Systems and methods for overlaying and integrating computer aided design (CAD) drawings with fluid models |
| US10977397B2 (en) | 2017-03-10 | 2021-04-13 | Altair Engineering, Inc. | Optimization of prototype and machine design within a 3D fluid modeling environment |
| US11004568B2 (en) | 2017-03-10 | 2021-05-11 | Altair Engineering, Inc. | Systems and methods for multi-dimensional fluid modeling of an organism or organ |
| US11216005B1 (en) * | 2020-10-06 | 2022-01-04 | Accenture Global Solutions Limited | Generating a point cloud capture plan |
Families Citing this family (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| FR3053817B1 (fr) * | 2016-07-07 | 2021-11-19 | Levels3D | Methode et systeme de reconstruction d'une representation tridimensionnelle |
Family Cites Families (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US9324190B2 (en) * | 2012-02-24 | 2016-04-26 | Matterport, Inc. | Capturing and aligning three-dimensional scenes |
| US8705893B1 (en) * | 2013-03-14 | 2014-04-22 | Palo Alto Research Center Incorporated | Apparatus and method for creating floor plans |
-
2014
- 2014-09-11 FR FR1458550A patent/FR3025918B1/fr not_active Expired - Fee Related
-
2015
- 2015-09-11 WO PCT/EP2015/070886 patent/WO2016038208A2/fr not_active Ceased
Cited By (16)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US11004568B2 (en) | 2017-03-10 | 2021-05-11 | Altair Engineering, Inc. | Systems and methods for multi-dimensional fluid modeling of an organism or organ |
| US11379630B2 (en) | 2017-03-10 | 2022-07-05 | Altair Engineering, Inc. | Systems and methods for utilizing a 3D CAD point-cloud to automatically create a fluid model |
| US10409950B2 (en) | 2017-03-10 | 2019-09-10 | General Electric Company | Systems and methods for utilizing a 3D CAD point-cloud to automatically create a fluid model |
| US10650114B2 (en) | 2017-03-10 | 2020-05-12 | Ge Aviation Systems Llc | Systems and methods for utilizing a 3D CAD point-cloud to automatically create a fluid model |
| US10803211B2 (en) | 2017-03-10 | 2020-10-13 | General Electric Company | Multiple fluid model tool for interdisciplinary fluid modeling |
| US10867085B2 (en) | 2017-03-10 | 2020-12-15 | General Electric Company | Systems and methods for overlaying and integrating computer aided design (CAD) drawings with fluid models |
| US12333224B2 (en) | 2017-03-10 | 2025-06-17 | Altair Engineering, Inc. | Systems and methods for overlaying and integrating computer aided design (CAD) drawings with fluid models |
| US11967434B2 (en) | 2017-03-10 | 2024-04-23 | Altair Engineering, Inc. | Systems and methods for multi-dimensional fluid modeling of an organism or organ |
| EP3373168A1 (fr) * | 2017-03-10 | 2018-09-12 | General Electric Company | Systèmes et procédés permettant d'utiliser un nuage de points de cao 3d pour créer automatiquement un modèle de fluide |
| US10977397B2 (en) | 2017-03-10 | 2021-04-13 | Altair Engineering, Inc. | Optimization of prototype and machine design within a 3D fluid modeling environment |
| US10963599B2 (en) | 2017-03-10 | 2021-03-30 | Altair Engineering, Inc. | Systems and methods for utilizing a 3D CAD point-cloud to automatically create a fluid model |
| US11538591B2 (en) | 2017-03-10 | 2022-12-27 | Altair Engineering, Inc. | Training and refining fluid models using disparate and aggregated machine data |
| US11714933B2 (en) | 2017-03-10 | 2023-08-01 | Altair Engineering, Inc. | Systems and methods for utilizing a 3D CAD point-cloud to automatically create a fluid model |
| US11947882B2 (en) | 2017-03-10 | 2024-04-02 | Altair Engineering, Inc. | Optimization of prototype and machine design within a 3D fluid modeling environment |
| CN109614857A (zh) * | 2018-10-31 | 2019-04-12 | 百度在线网络技术(北京)有限公司 | 基于点云的杆状物识别方法、装置、设备及存储介质 |
| US11216005B1 (en) * | 2020-10-06 | 2022-01-04 | Accenture Global Solutions Limited | Generating a point cloud capture plan |
Also Published As
| Publication number | Publication date |
|---|---|
| FR3025918A1 (fr) | 2016-03-18 |
| FR3025918B1 (fr) | 2018-04-06 |
| WO2016038208A3 (fr) | 2016-06-23 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| WO2016038208A2 (fr) | Procede et systeme de modelisation automatisee d'une piece | |
| EP3234913B1 (fr) | Procede de detection de defaut sur une surface de pneumatique | |
| FR3081248A1 (fr) | Systeme et procede de determination d’un emplacement pour le placement d'un paquet | |
| FR2940443A1 (fr) | Procede de controle non destructif d'une piece mecanique | |
| EP2109079A1 (fr) | Procédé et système de caractérisation d'un défaut de surface d'une pièce | |
| WO2013053701A1 (fr) | Procede d'etalonnage d'un systeme de vision par ordinateur embarque sur un mobile | |
| FR3053821A1 (fr) | Dispositif d'aide au pilotage d'un giravion, giravion associe et procede d'aide au pilotage correspondant | |
| WO2020169380A1 (fr) | Procede et dispositif de surveillance de l'environnement d'un robot | |
| EP2930659A1 (fr) | Procédé de détection de points d'intérêt dans une image numérique | |
| WO2014198777A1 (fr) | Methode de traitement de l'image numerique de la surface d'un pneumatique en vue de la detection d'une anomalie | |
| EP1100048A1 (fr) | Procédé de création automatique de maquette numérique à partir de couples d'images stéréoscopiques | |
| WO2009125132A2 (fr) | Procédé de détermination d'une représentation tridimensionnelle d'un objet à partir d'une séquence d'images en coupe, produit programme d'ordinateur, procede d'analyse d'un objet et systeme d'imagerie correspondants | |
| WO2019121056A1 (fr) | Methode de reconnaissance d'objets dans une scene observee en trois dimensions | |
| WO2020169381A1 (fr) | Procede de recalage d'images de profondeur | |
| FR2898986A1 (fr) | Detection d'obstacle | |
| EP4212825B1 (fr) | Procédé d alignement d'une caméra sur une route | |
| FR2929417A1 (fr) | Procede de determination d'une representation tridimensionnelle d'un objet a partir de points, programme d'ordinateur et systeme d'imagerie correspondant | |
| EP2391921A2 (fr) | Procede de reconstruction automatise de modeles tridimensionnels de superstructures des toits et des batiments en derivant | |
| WO2017005930A1 (fr) | Détection d'objets par traitement d'images | |
| EP0559594A1 (fr) | Procédé de création de la signature d'un objet représenté sur une image numérique,du type consistant à définir au moins un calibre dimensionnel caractéristique dudit objet, et procédé correspondant de vérification de la signature d'un objet | |
| EP2904543B1 (fr) | Procédé de comptage de personnes pour appareil stéréoscopique et appareil stéréoscopique de comptage de personnes correspondant | |
| WO2017187059A1 (fr) | Methode de reglage d'un appareil de prise de vue stereoscopique | |
| FR3037143A1 (fr) | Dispositif a camera unique et procede de mesure pour caracteriser des gouttes de pluie | |
| FR3034229A1 (fr) | Procede de denombrement d'objets dans une zone spatiale predeterminee | |
| EP1958157A1 (fr) | Procede de mise en correspondance d'images stéréoscopiques |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| 121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 15774874 Country of ref document: EP Kind code of ref document: A2 |
|
| NENP | Non-entry into the national phase in: |
Ref country code: DE |
|
| 122 | Ep: pct application non-entry in european phase |
Ref document number: 15774874 Country of ref document: EP Kind code of ref document: A2 |