[go: up one dir, main page]

WO2019030449A1 - Procédé de contrôle automatique non destructif de pièces mécaniques - Google Patents

Procédé de contrôle automatique non destructif de pièces mécaniques Download PDF

Info

Publication number
WO2019030449A1
WO2019030449A1 PCT/FR2018/052024 FR2018052024W WO2019030449A1 WO 2019030449 A1 WO2019030449 A1 WO 2019030449A1 FR 2018052024 W FR2018052024 W FR 2018052024W WO 2019030449 A1 WO2019030449 A1 WO 2019030449A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
pixel
real
real image
acquisition
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
PCT/FR2018/052024
Other languages
English (en)
Inventor
Estelle PARRA
Haithem BOUSSAID
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Safran SA
Original Assignee
Safran SA
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Safran SA filed Critical Safran SA
Publication of WO2019030449A1 publication Critical patent/WO2019030449A1/fr
Anticipated expiration legal-status Critical
Ceased legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • G06T7/001Industrial image inspection using an image reference approach
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/0464Convolutional networks [CNN, ConvNet]
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/09Supervised learning
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10116X-ray image
    • G06T2207/10124Digitally reconstructed radiograph [DRR]
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection

Definitions

  • the invention relates to a method and a device for non-destructive inspection of mechanical parts by inspection of images of said part obtained by means of a radiographic image acquisition system for example.
  • the invention also relates to a computer program stored on a recording medium and having instructions for carrying out the steps of the method when executed by a computer and a computer-readable recording medium on which a computer is recorded.
  • computer program comprising instructions for performing the steps of the method.
  • non-destructive testing consists of acquiring an image of said part reproducing the potential indications of defects and inspecting this image.
  • the acquisition mode of the observation image may be an X-ray system, ultrasound, eddy current or any other shooting device capable of reproducing the details of the material structure of the part.
  • images of observations to be inspected are manually examined by operators to detect and locate potential defects.
  • the results of manual observations are uncertain as they may vary depending on the observer.
  • the operators generally compare the images of observations to be inspected with a reference image of a chosen part by parts judged to be sound. An evaluation of the gap between a thumbnail (patch) of a potential defect and the corresponding thumbnail in the reference image is then made visually. The operator then decides whether or not a defect on the controlled part according to the difference visually observed between the image of the latter and that of the reference image.
  • a superimposition of an image of the part including indications of defects and of the reference image can reveal a geometric difference between the two images which is not due to a defect but rather to the variability of the spatial position. of each piece during image acquisition. Therefore, it is necessary to perform a geometric registration of the images, the part to be checked and reference.
  • An object of the invention is to reduce the risk of errors of observation inherent in a human observation.
  • Another object of the invention is to automate the observation task in order to control, in a short time, a large number of parts of different shapes and different compositions.
  • said image characteristic vectors are obtained by calculating image descriptors at each pixel estimated by a deep learning based on convolutional neural networks of the real image and the reference image.
  • the method according to the invention further comprises the following steps:
  • a supervised statistical learning which takes as input a set of triplets consisting of the real image, the reference image generated and the positions of the defects in the real image and a deep convolutional neural network and which generates a network of optimized neurons which makes it possible to calculate a characteristic image vector at the level of each pixel and a metric which makes it possible to estimate the difference between two characteristic pixel vectors.
  • Statistical learning can be achieved either by Siamese convolutional neural networks sharing the same weights to be learned, or by parallel pseudo-Siamese networks with independent learning weights, or by a two-channel input network. parallel by convolution layer.
  • the method according to the invention is implemented by a non-destructive automatic control device for mechanical parts implementing an image acquisition radiographic system, comprising: means for acquiring at least one real image of a part to be inspected which may contain indications of potential defects,
  • a database comprising a plurality of pairs of real images and corresponding reference images
  • a supervised statistical learning module that optimizes the parameters of the deep convolutional neural network.
  • FIG. 1 represents an X-ray image acquisition system used to implement the method according to the invention
  • FIG. 2 schematically illustrates a partial view of a part to be controlled and its radiographic image
  • FIG. 3 schematically illustrates a superposition of two radiographic images of the same view but two different acquisitions
  • FIG. 4 schematically illustrates the different reference frames of the scene of acquisition of a real image of the part to be controlled
  • FIG. 5 schematically illustrates the projection of a 3D point of the real image at a 2D point
  • FIG. 6 schematically illustrates the registration process used in the method according to the invention
  • FIG. 7 schematically illustrates the extraction of cylindroids-shaped structures from the CAD whose centroids are used as 3D points of interest
  • FIG. 8 schematically illustrates a first embodiment of the steps of the method according to the invention.
  • FIG. 9 schematically represents a preferred embodiment of the steps of the method according to the invention.
  • FIG. 1 represents an X-ray image acquisition system used to implement the method according to the invention comprising an X-ray source 2 which sends X-rays to strike part 4 taken from a carriage, a detector 6 which quantifies the remaining energy of the X-rays after passing through the workpiece 4, a robotic arm 8 intended to place the workpiece 4 between the spoke source 2 and the detector 6 at a predetermined angle of view.
  • the X-ray image acquisition system makes it possible to obtain a real image of a part to be checked 4 that may contain indications of potential defects, as illustrated in FIG. 2.
  • the actual image 10 of the test piece 4 may contain potential indications of abnormalities such as, for example, the presence of denser or less dense foreign bodies, shrinkage, inclusions, residues or oxides of on thicknesses of the piece.
  • the robotic arm 8 of the acquisition system automatically places each piece 4 between the source 2 and the detector 6 of the system RX in a predetermined single position.
  • a variability in the spatial position of the points 11, 13 of the part between the two images can appear as shown in Figure 3. This variability may result from the fact that the robot of the acquisition system initially struggles to grasp the coin from the cart. Several attempts to seize the room are sometimes necessary.
  • the robot does not capture all parts in the same way. Once the part is entered, the robot moves very quickly and stops abruptly at the point of arrival, which induces inaccuracy on the coordinates of the arrival point.
  • the method according to the invention makes it possible to readjust the CAD data from the Catia file of the part to be checked with respect to the 2D view of the part acquired by the X-ray system.
  • This registration is obtained by a estimation of the rigid transformation in 3D space (rotation and translation) to be applied on the CAD which makes it possible to place it in the reference of the system of acquisition or was positioned the real part during the acquisition.
  • a simulation of the X-ray firing on the recalibrated 3D model is performed taking into account the parameters of the acquisition system so as to generate an image similar to the image acquired by the image acquisition system.
  • Figure 4 schematically illustrates the steps of this modeling. This involves the following three steps: - definition of the referential attached to the CAD of the piece called "World Coordinate" in English (WCS),
  • the X-ray source corresponding to the origin of the CCS (Camera Coordinate System).
  • the latter coincides with the optical acquisition center RX, projection in perspective of a point M on the projection plane.
  • the 3D coordinates of a vertex "M" of the CAD of the part are designated (X, Y, Z) in the WCS.
  • the CAD has been pretreated so that its center (centroid of all the vertices that make up the part) coincides with the origin 0 of the WCS mark, and the main axes of the CAD coincide with (X, Y, Z).
  • the origin of the CCS coincides with the optical center of the system which corresponds to the source of X-rays.
  • the coordinates of the point "M" in this frame are expressed along the axes (X, Y, Z) with the Z axis coincides with the optical axis (the X-ray coming from the source reaches the center of the detector).
  • I l then exists a rigid transformation between the WCS and CCS which makes it possible to transform the coordinates of the point M in the coordinate system CCS into coordinates in the reference WCS.
  • This rigid transformation can be represented by a translation vector and a rotation matrix.
  • the 3 parameters of rotation and translation make it possible to determine the installation of the CAD in the CCS mark. These parameters, which are the unknowns of the modeling, are estimated by the registration.
  • the projection in perspective of the point M on the projection plane is the 2D point "m” which is represented by fôi V) in a new 2D referential called PCS (Projection Coordinate System).
  • the axes ( ⁇ ) of this mark are parallel to the axes ( ⁇ , to find the relation between the two marks CCS and PCS, we apply the Thales theorem on the triangle whose vertices are "C” (the source) "o” (the center of the PCS mark) and "m” (projection of the point M) as shown in Figure 5.
  • ICS Image Coordinate System 2D coordinate system to represent the coordinates of the pixel (u, v) in the digital image produced by the x-ray system. Since the detector 6 used is a flat panel the transformation between the PCS and ICS marks can be represented by a linear model as follows:
  • the relationship between the two sets of input data, c That is, the 3D coordinates (X, Y, Z) of the points in the WCS coordinate system and the 2D coordinates (u, v) of their respective projections in the ICS are described below.
  • the method according to the invention is based, by way of non-limiting example, on an approach based on the pairing of points of interest in which particular points are considered as bitter of registration which will make it possible to find the rigid transformation.
  • to apply on the CAD 3D points on the CAD are then defined and 2D points are automatically detected from the image.
  • the registration consists in applying a rigid transformation on the 3D points so that the projection of these 3D points sticks with the 2D points.
  • step 14 consists of extracting 2D points from the image
  • step 15 consists in labeling the extracted 2D points.
  • the latter are mapped to 3D points previously extracted from the CAD in step 16.
  • Step 17 consists in estimating the rigid transformation, for example, by the PNP method "PNP: Perspective N Points" described in particular in Y.l. Abdel-Aziz and H. M. Karara. Direct linear transformation in photogrammetry. In Proc. ASP / UI Symp. Close-Range Photogrammetry, 1971. C.-P. Lu, G. D. Hager, and E. Mjolsness. Fast and globally convergent pose estimation from video images. T PAMI 2000. 3D point extraction from CAD
  • This treatment is done only once on the CAD.
  • the goal is to determine the coordinates (x, y, z) of the 3D points that will be used as bitter registration.
  • These 3D points may be the centers of particular CAD structures as schematically illustrated in FIG. 7. They may then be calculated as the centroid of the polygon that forms the structure. The particular structures of the CAD are isolated and the center of gravity of each structure is then calculated. The coordinates of the centers of the structures on the CAD to be readjusted are thus obtained.
  • the goal is to use these particular 3D points as bitters of registration.
  • the method according to the invention is based on a method described in the patent application "Non-Destructive Testing of Aeronautical Parts by an X-ray System” filed on March 20, 2017 under the number n ° FR 1772283.
  • the linear system SI has twelve unknowns (rotation matrix Rp of dimension 3X3 and translation vector Tp of dimension 3X1).
  • the knowledge of the 3D coordinates (X, Y, Z) of a point and the coordinates (u, v) of its projection makes it possible to have three equations. It takes at least four 3D points and their associated projections to solve this system to twelve unknowns. However, it is better to have more than four points to introduce redundancy into the data and be less sensitive to noise that can get into the coordinates of the points.
  • the method used in the method according to the invention for solving this linear system is described in "Vincent Lepetit, Francesco Moreno-Noguer, and Pascal Fua. (2009).
  • EPnP An Accurate O (n) Solution to the PnP Problem.
  • This operating mode is simulated by the calculation module to generate a reference image without defects from the 3D triangular mesh of the part 2, that is to say of a set of 3D coordinates of the vertices of the triangles which form the mesh and connectivity between the vertices that defines the topology of the mesh.
  • This mesh is recoverable, for example, from the design of the geometry of the part that can be made using CATIA ® software for example, as explained above.
  • the defect detection on a part is then performed by comparing the image of the part 2 obtained by the X-ray acquisition system and the simulated image from the 3D triangular mesh of the part 2.
  • a real image 20 of the part to be controlled 2 obtained by the X-ray acquisition system and a reference image 22, without defects, obtained from a 3D triangular mesh of the part 2 are stored in a memory module calculation.
  • the 3D coordinates of the reference image 22 are digitally adjusted to the position of the part in the radiographic marker used during the acquisition of the actual image 20.
  • the real image 20 and the reference image 22 are then provided to the image processing module 24 which generates a first vector VI of characteristics / descriptors image at each pixel of the actual image 20 and a second vector V2 of features / image descriptors at each pixel of the reference image 22.
  • the vectors VI and V2 are provided to the comparison module 26 for performing a pixel by pixel comparison by computing image characteristics, previously determined by statistical learning, and an application-specific similarity measurement value.
  • the measure of similarity can be for example an Euclidean distance, a norm 1 of the vector difference between the two vectors or a distance from Mahalanobis ).
  • the fault positions will have similarity values different from those of the healthy zones.
  • the method according to the invention comprises a supervised statistical learning phase which enables the calculation module to learn characteristics / image descriptors at each pixel of the reference image. 22 and its restricted neighborhood (patch or thumbnail) and the measure of similarity between the characteristics of each pair of patches, to detect the presence of a defect in the patch level of the image to be controlled.
  • a database of annotated real images is constituted in which potential defects are previously located on each of these real images by experts.
  • the real image database is then augmented by simulated reference images that do not contain a defect.
  • a corresponding reference image is generated from the registration of the 3D model and then by simulation.
  • step 30 numerical data from the CAD (Computer Aided Design) (respectively learning images are extracted from the memory of the calculation module.
  • CAD Computer Aided Design
  • step 34 the digital data from the CAD (representing the set of coordinates of the image of the part 20 are extracted from a 3D model of this part) are aligned with the training images.
  • step 36 the coordinates of the image of the part 20 extracted from the 3D model are digitally recalibrated on the 3D space of the reference image.
  • the digitally recalibrated coordinates on the 3D space of the reference image are supplied to a simulator of the acquisition system associated with the calculation module which generates, in step 38, the reference image 22.
  • step 40 the calculation module extracts characteristic vectors / image descriptors at each feature pixel respectively from the training image and from the reference image.
  • step 42 the vectors undergo a processing intended to determine the learning losses with respect to a real defect map of the image 44.
  • the vectors undergo an optimization 46 which generates parameters which are injected into the phase test.
  • Statistical learning involves optimizing the parameters of the neural network that minimize the learning loss that represents the difference between manual annotation and neural network prediction.
  • the characteristic vector of a pixel is the result of convolutions applied on this pixel and its neighborhood.
  • the method according to the invention thus makes it possible to automate the observation task in order to be able to control, in a short time, a large number of pieces of different shapes and different compositions.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Biophysics (AREA)
  • Evolutionary Computation (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Biomedical Technology (AREA)
  • Software Systems (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Mathematical Physics (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Quality & Reliability (AREA)
  • Analysing Materials By The Use Of Radiation (AREA)

Abstract

L'invention concerne un procédé et un dispositif de contrôle non destructif de pièces mécaniques par inspection d'images desdites pièces obtenues par un système radiographique d'acquisition d'images. Le procédé selon l'invention comporte les étapes suivantes: -acquérir au moins une image réelle (20) d'une pièce à contrôler susceptible de contenir des indications de défauts potentiels, -effectuer un recalage 2D-3D d'un modèle 3D de la pièce à contrôler pour estimer sa pose 3D lors de l'acquisition de l'image réelle (20), -simuler les conditions opératoires d'acquisition de l'image réelle (20) à partir de la pose 3D estimée de ladite pièce pour générer une image de référence (22) sans défauts de ladite pièce, -générer, au moyen d'un module de traitement d'images (24), pour chaque pixel de l'image réel (20) un premier vecteur de caractéristiques décrivant le pixel et son voisinage et pour chaque pixel de l'image de référence (22) un deuxième vecteur de caractéristiques, -comparer les vecteurs de caractéristiques de chaque pixel de l'image réelle (20) au vecteur de caractéristiques du pixel correspondant de l'image de référence (22), -déduire une carte de défauts de la pièce contrôlée à partir de la comparaison desdits vecteurs de caractéristiques de pixels d'image

Description

PROCÉDÉ DE CONTRÔLE AUTOMATIQUE NON DESTRUCTIF DE PIÈCES MÉCANIQUES
DESCRIPTION DOMAINE TECHNIQUE
L'invention concerne un procédé et un dispositif de contrôle non destructif de pièces mécaniques par inspection d'images desdites pièce obtenues au moyen d'un système d'acquisition d'images radiographiques par exemple.
L'invention concerne également un programme d'ordinateur mémorisé sur un support d'enregistrement et comportant des instructions pour réaliser les étapes du procédé lorsqu'il est exécuté par un ordinateur et un support d'enregistrement lisible par un ordinateur sur lequel est enregistré un programme d'ordinateur comprenant des instructions pour l'exécution des étapes du procédé. ETAT DE LA TECHNIQUE ANTÉRIEURE
Pour contrôler l'état d'une pièce issue de la production, le contrôle non destructif consiste à acquérir une image de ladite pièce reproduisant les potentielles indications de défauts et d'inspecter cette image. La modalité d'acquisition de l'image d'observation peut être un système à rayons X, ultrasons, courant de Foucault ou tout autre dispositif de prise de vue susceptible de reproduire les détails de la structure matérielle de la pièce.
Actuellement, les images d'observations à inspecter sont examinées manuellement par des opérateurs pour détecter et localiser les potentiels défauts. Les résultats des observations manuelles sont incertains car ils peuvent varier en fonction de l'observateur. En outre, pour lever le doute sur un potentiel défaut, généralement les opérateurs comparent les images d'observations à inspecter à une image de référence d'une pièce choisie pa rmi des pièces jugées saines. Une évaluation de l'écart entre une imagette (patch) d'un potentiel défaut et l'imagette correspondante dans l'image de référence est alors faite visuellement. L'opérateur décide ensuite de la présence ou non d'un défaut sur la pièce contrôlée en fonction de l'écart constaté visuellement entre l'imagette de cette dernière et celle de l'image de référence.
Néanmoins, une superposition d'une image de la pièce comportant des indications de défauts et de l'image de référence peut révéler un écart géométrique entre les deux images qui n'est pas dû à un défaut mais plutôt à la variabilité de la position spatiale de chaque pièce lors de l'acquisition d'image. Par conséquent, il est nécessaire de réaliser un recalage géométrique des images, de la pièce à contrôler et de référence.
Un but de l'invention est de réduire le risque d'erreurs d'observation inhérent à une observation humaine.
Un autre but de l'invention est d'automatiser la tâche d'observation afin de pouvoir contrôler, en un temps réduit, un grand nombre de pièces de différentes formes et de différentes compositions.
EXPOSÉ DE L'INVENTION
Ce but est atteint au moyen d'un procédé de contrôle automatique non destructif de pièces mécaniques mettant en œuvre un système radiographique d'acquisition d'images, comportant les étapes suivantes :
-acquérir au moins une image réelle d'une pièce à contrôler susceptible de contenir des indications de défauts potentiels,
-effectuer un recalage 2D-3D d'un modèle 3D de la pièce à contrôler de manière à estimer la pose 3D de ladite pièce lors de l'acquisition de ladite image réelle,
-simuler les conditions opératoires d'acquisition de l'image réelle de la pièce à contrôler à partir de la pose 3D estimée de ladite pièce pour générer une image de référence sans défauts de ladite pièce,
-générer, au moyen d'un module de traitement d'images, pour chaque pixel de l'image réel un premier vecteur de caractéristiques qui décrit le pixel et son voisinage et pour chaque pixel de l'image de référence un deuxième vecteur de caractéristiques,
-comparer le vecteur de caractéristiques de chaque pixel de l'image réelle au vecteur de caractéristiques du pixel correspondant de l'image de référence générée, ladite comparaison utilisant une mesure de similarité entre les deux vecteurs, par exemple la distance Euclidéenne, la norme 1 du vecteur différence entre les deux vecteurs, la distance de Mahalanobis...
-déduire une carte de défauts de la pièce contrôlée à partir de la comparaison desdits vecteurs de caractéristiques de pixels d'image.
Selon l'invention, lesdits vecteurs caractéristiques d'image sont obtenus par calcul de descripteurs d'image au niveau de chaque pixel estimés par un apprentissage profond à base de réseaux de neurones convolutionnels de l'image réelle et de l'image de référence.
Le procédé selon l'invention comporte en outre les étapes suivantes :
-constituer une base de données comportant une pluralité de paires d'images réelles et d'images de référence correspondantes,
-localiser un potentiel défaut sur l'image réelle,
-constituer une base de données comportant une pluralité de paires d'images réelles et d'images de référence correspondantes,
-localiser manuellement un potentiel défaut sur l'image réelle,
-réaliser un apprentissage statistique supervisé qui prend en entrée un ensemble de triplets constitués de l'image réelle, l'image de référence générée et les positions des défauts dans l'image réelle et un réseau de neurones convolutionnel profond et qui génère un réseau de neurones optimisé qui permet de calculer un vecteur caractéristique d'image au niveau de chaque pixel et une métrique qui permet d'estimer l'écart entre deux vecteurs caractéristiques de pixels.
L'apprentissage statistique peut être réalisé soit par des réseaux de neurones à convolutions siamois partageant les mêmes poids à apprendre, soit par des réseaux pseudo-siamois en parallèle ayant des poids à apprendre indépendants, ou encore par un réseau à deux canaux d'entrée parallèles par couche de convolution.
Le procédé selon l'invention est mis en œuvre par un dispositif de contrôle automatique non destructif de pièces mécaniques mettant en œuvre un système radiographique d'acquisition d'images, comportant : -des moyens pour acquérir au moins une image réelle d'une pièce à contrôler susceptible de contenir des indications de défauts potentiels,
-des moyens pour effectuer un recalage 2D-3D d'un modèle 3D de la pièce à contrôler de manière à estimer la pose 3D de ladite pièce lors de l'acquisition de ladite image réelle,
-des moyens pour simuler les conditions opératoires d'acquisition de l'image réelle de la pièce à contrôler à partir de la pose 3D estimée de ladite pièce pour générer une image de référence sans défauts de ladite pièce,
-des moyens pour générer, au moyen d'un module de traitement d'images, pour chaque pixel de l'image réel un premier vecteur de caractéristiques qui décrit le pixel et son voisinage et pour chaque pixel de l'image de référence un deuxième vecteur de caractéristiques,
-des moyens pour comparer le vecteur de caractéristiques de chaque pixel de l'image réelle au vecteur de caractéristiques du pixel correspondant de l'image de référence générée par calcul de mesure de similarité entre les deux vecteurs,
-des moyens pour déduire une carte de défauts de la pièce contrôlée à partir de la comparaison desdits vecteurs de caractéristiques de pixels d'image Le dispositif selon l'invention comporte en outre:
-une base de données comportant une pluralité de paires d'images réelles et d'images de référence correspondantes,
-un module d'apprentissage statistique supervisé qui optimise les paramètres du réseau de neurones convolutionnel profond.
BRÈVE DESCRIPTION DES DESSINS
D'autres caractéristiques et avantages de l'invention ressortiront de la description qui va suivre, prise à titre d'exemple non limitatif, en référence aux figures annexées dans lesquelles:
- La figure 1 représente un système d'acquisition d'image à rayons X utilisé pour mettre en œuvre le procédé selon l'invention ; la figure 2 illustre schématiquement une vue partielle d'une pièce à contrôler et son image radiographique ;
- la figure 3 illustre schématiquement une superposition de deux images radiographiques de la même vue mais de deux acquisitions différentes ;
- la figure 4 illustre schématiquement les différents référentiels de la scène d'acquisition d'une image réelle de la pièce à contrôler;
- la figure 5 illustre schématiquement la projection d'un point 3D de l'image réelle en un point 2D ;
- La figure 6 illustre schématiquement le processus de recalage utilisé dans le procédé selon l'invention ;
- La figure 7 illustre schématiquement l'extraction de structures de forme cylindroïdes à partir de la CAO dont les barycentres sont utilisés comme points d'intérêt 3D ;
- la figure 8 illustre schématiquement un premier mode de réalisation des étapes du procédé selon l'invention ;
- la figure 9 représente schématiquement un mode préféré de mise en œuvre des étapes du procédé selon l'invention.
EXPOSÉ DÉTAILLÉ DE MODES DE RÉALISATION PARTICULIERS
La figure 1 représente un système d'acquisition d'image à rayons X utilisé pour mettre en œuvre le procédé selon l'invention comportant une source 2 à rayons X qui envoie des rayons X percuter la pièce 4 prélevée à partir d'un chariot, un détecteur 6 qui quantifie l'énergie restante des rayons X après avoir traversé la pièce 4, un bras robotisé 8 destiné à placer la pièce 4 entre la source à rayons 2 et le détecteur 6 sous un angle de vue prédéterminé. Le système d'acquisition d'image à rayons X permet d'obtenir une image réelle 10 d'une pièce à contrôler 4 susceptible de contenir des indications de défauts potentiels, comme cela est illustré par la figure 2. Nous disposons aussi d'un maillage triangulaire 3D de la pièce à contrôler, c'est-à-dire un ensemble de coordonnées 3D des sommets des triangles qui forment le maillage et la connectivité entre les sommets qui définit la topologie du maillage. Ce maillage est récupérable à partir de la conception de la géométrie de la pièce faite sur le logiciel CATIA® par exemple.
L'image réelle 10 de la pièce à contrôler 4 peut contenir de potentielles indications d'anomalies telles que par exemple la présence de corps étrangers plus dense ou moins dense, de retassures, d'inclusions, de résidus ou d'oxydes de sous ou sur épaisseurs de la pièce. Afin de mettre en surbrillance automatiquement les positions dans l'image des potentielles anomalies, le bras robotisé 8 du système d'acquisition place automatiquement chaque pièce 4 entre la source 2 et le détecteur 6 du système RX selon une position unique prédéterminée. Cependant en comparant les images produites de la même vue de plusieurs pièces, une variabilité dans la position spatiale des points 11, 13 de la pièce entre les deux images peut apparaître comme cela est illustré par la figure 3. Cette variabilité peut résulter du fait que le robot du système d'acquisition peine au départ à saisir la pièce depuis le chariot. Plusieurs tentatives pour saisir la pièce sont parfois nécessaires. En outre, le robot ne saisit pas toutes les pièces de la même manière. Une fois la pièce saisie, le robot se déplace très rapidement et s'arrête brusquement au point d'arrivée, ce qui induit une imprécision sur les coordonnées du point d'arrivée.
Pour pallier à cet inconvénient, le procédé selon l'invention permet de recaler les données CAO provenant du fichier Catia de la pièce à contrôler par rapport à la vue 2D de la pièce acquise par le système à rayons X. Ce recalage est obtenu par une estimation de la transformation rigide en espace 3D (rotation et translation) à appliquer sur la CAO qui permet de la placer dans le repère du système d'acquisition ou était positionnée la vrai pièce lors de l'acquisition. Ensuite, une simulation du tir des rayons X sur le modèle 3D recalé est réalisée en tenant compte des paramètres du système d'acquisition de manière à générer une image similaire à l'image acquise par le système d'acquisition d'image.
Pour réaliser la modélisation de la géométrie du système d'acquisition RX, il est nécessaire de définir les différents référentiels et les transformations (connues ou inconnues) entre ces référentiels.
La figure 4 illustre schématiquement les étapes de cette modélisation. Celle-ci comporte les trois étapes suivantes : - définition du référentiel rattaché à la CAO de la pièce appelé "World Coordinate" en anglais (WCS),
- définition de la source des rayons X correspondant à l'origine du CCS (Caméra Coordinate System). Ce dernier coïncide avec le centre optique d'acquisition RX, - projection en perspective d'un point M sur le plan de projection.
Comme cela est illustré par la figure 4, les coordonnées 3D d'un sommet « M » de la CAO de la pièce sont désignés par (X, Y, Z) dans le WCS. La CAO a été prétraitée de telle sorte que son centre (barycentre de tous les sommets qui forment la pièce) coïncide avec l'origine 0 du repère WCS, et les principaux axes de la CAO coïncident avec (X, Y, Z).
L'origine du CCS (Caméra Coordinate System) coïncide avec le centre optique du système qui correspond à la source des rayons X. Les coordonnées du point « M » dans ce repère s'expriment suivant les axes (X, Y, Z ) avec l'axe Z coïncidant avec l'axe optique (le rayon X qui provient de la source parvient au centre du détecteur). Dans ce repère, le plan du détecteur est définit par l'équation Z = f, où /est la distance focale du système (paramètre d'entrée connue qui correspond à la distance entre la source et le détecteur). I l existe alors une transformation rigide entre le WCS et CCS qui permet de transformer les coordonnées du point M dans le repère CCS en coordonnées dans le repère WCS. On peut représenter cette transformation rigide par un vecteur de translation et une matrice de rotation.
Figure imgf000009_0001
Les 3 paramètres de rotation et de translation permettent de déterminer la pose de la CAO da ns le repère CCS. Ces pa ra mètres, qui sont les inconnues de la modélisation, sont estimés par le recalage.
La projection en perspective du point M sur le plan de projection est le point 2D « m » qui est représenté par fôi V) dans un nouveau référentiel 2D appelé PCS (projection Coordinate System). Les axes (^ ) de ce repère sont parallèles aux axes ( Λ , pour trouver la relation entre les deux repères CCS et PCS, nous appliquons le théorème de Thalès sur le triangle dont les sommets sont « C » (la source) « o » (le centre du repère PCS) et « m » (projection du point M) comme cela est illustré par la figure 5.
Nous obtenons ainsi la relation suivante :
Z _ Y X
/ ~ ~ Λ '
En passant à la notation matricielle et en passant aux coordonnées homogènes, nous pouvons écrire :
Figure imgf000010_0001
Finalement, nous introduisons le repère 2D ICS (Image Coordinate System) pour représenter les coordonnées du pixel (u, v) dans l'image numérique produite par le système à rayons X. Puisque le détecteur 6 utilisé est un panneau plat (flat panel), on peut représenter la transformation entre les repères PCS et ICS par un modèle linéaire comme suit:
Figure imgf000010_0002
Les paramètres de ce modèle sont les facteurs d'agrandissement i ku - kv ) dans chaque direction, une translation de l'origine("'^ ''¾), qui représente la projection du point (x, y) = (0, 0) dans le ICS et un facteur oblique qui modélise un repère non orthogonal (dans notre cas, s=0 car nos axes (u, v) sont bien orthogonales). La relation entre les deux ensembles de données d'entrée, c'est-à-dire, les coordonnées 3D (X, Y, Z) des points dans le repère WCS et les coordonnées 2D (u, v) de leurs projections respectives dans le ICS Sont décrites ci-après.
Cette relation s'écrit avec le système linéaire SI suivant :
Figure imgf000011_0001
Les inconnues dans ce système sont la translation et la rotation :·> >'
Il existe plusieurs méthodes pour faire le recalage 2D 3D. La publication "Markelj PI et al. A review of 3D/2D registration methods for image-guided interventions. Médical Image Analysis, 2012" fait un état de l'art des méthodes du recalage 2D 3D :
Le procédé selon l'invention s'appuie, à titre d'exemple non limitatif, sur une approche basée sur l'appariement de points d'intérêt dans laquelle des points particuliers sont considérés comme amers de recalage qui vont permettre de trouver la transformation rigide à appliquer sur la CAO. Des points en 3D sur la CAO sont alors définis et points en 2D sont détectés automatiquement à partir de l'image. Le recalage consiste à appliquer une transformation rigide sur les points 3D de telle sorte que la projection de ces points 3D colle avec les points 2D.
Comme cela est illustré par la figure 6 illustrant schématiquement l'approche du recalage utilisé dans le procédé selon l'invention, l'étape 14 consiste à extraire des points 2D de l'image, l'étape 15 consiste à étiqueter les points 2D extraits ; Ces derniers sont mis en correspondance avec des points 3D préalablement extraits de la CAO à l'étape 16. L'étape 17 consiste à estimer la transformation rigide, par exemple, par la méthode PNP « PNP : Perspective N Points » décrite notamment dans Y.l. Abdel- Aziz and H. M. Karara. Direct linear transformation from comparator coordinates into object space coordinates in close-range photogrammetry. In Proc. ASP/UI Symp. Close- Range Photogrammetry, 1971. C.-P. Lu, G. D. Hager, and E. Mjolsness. Fast and globally convergent pose estimation from video images. T PAMI 2000. Extraction des points 3D de la CAO
Ce traitement n'est fait qu'une seul fois sur la CAO. Le but est de déterminer les coordonnées (x, y, z) des points 3D qui seront utilisés comme amers de recalage. Ces points 3D peuvent être les centres de structures particulières 10 de la CAO comme cela est illustré schématiquement par la figure 7. Ils peuvent être alors calculés comme étant le barycentre du polygone qui forme la structure. Les structures particulières de la CAO sont isolées et le barycentre de chaque structure est alors calculé. On obtient ainsi les coordonnées des centres des structures sur la CAO à recaler. Le but est d'utiliser ces points 3D particuliers comme amers de recalage.
Détection des centres des structures sur les images radiographiques
Pour détecter les points d'intérêt sur l'image 2D, le procédé selon l'invention s'appuie sur une méthode décrite dans la demande de brevet « Contrôle non destructif de pièces aéronautiques par un système de radiographie » déposé le 20 Mars 2017 sous le numéro n° FR 1772283.
Estimation des paramètres de la rotation et translation
Le système linéaire SI a douze inconnues (matrice rotation Rp de dimension 3X3 et vecteur translation Tp de dimension 3X1). La connaissance des coordonnées 3D (X, Y, Z) d'un point et les coordonnées (u, v) de sa projection permet d'avoir trois équations. Il faut donc au moins quatre points 3D et leurs projections associées pour pouvoir résoudre ce système à douze inconnues. Cependant il est préférable d'avoir plus que quatre points pour introduire de la redondance dans les données et être moins sensible au bruit qui peut s'introduire dans les coordonnées des points. La méthode utilisée dans le procédé selon l'invention pour résoudre ce système linéaire est décrite dans « Vincent Lepetit, Francesc Moreno-Noguer, and Pascal Fua. (2009). EPnP: An Accurate O(n) Solution to the PnP Problem. International Journal of Computer Vision ». Cependant il existe dans la littérature une panoplie de méthodes itératives et non itératives pour résoudre ce problème. A titre d'exemple, citons les publications les suivantes : « Y.l. Abdel-Aziz and H. M . Karara. Direct linear transformation from comparator coordinates into object space coordinates in close-range photogrammetry. In Proc. ASP/UI Symp. Close-Range Photogrammetry, 1971. C.-P. Lu, G. D. Hager, and E. Mjolsness. Fast and globally convergent pose estimation from video images. T PAMI 2000. » En fonctionnement, la pièce à contrôler 2 est positionnée par un bras robotisé entre une source rayons X et un détecteur 6 sous un angle de vue prédéterminé. La source envoie des rayons X qui percutent la pièce 2, et le détecteur quantifie l'énergie restante des rayons X après avoir traversé la pièce 2.
Ce mode opératoire est simulé par le module de calcul pour générer une image de référence sans défauts à partir du maillage triangulaire 3D de la pièce 2, c'est-à- dire d'un ensemble de coordonnées 3D des sommets des triangles qui forment le maillage et la connectivité entre les sommets qui définit la topologie du maillage. Ce maillage est récupérable, par exemple, à partir de la conception de la géométrie de la pièce qui peut être faite au moyen du logiciel CATIA® par exemple, comme cela est expliqué ci-dessus.
La détection de défaut sur une pièce est ensuite réalisée par comparaison de l'image de la pièce 2 obtenue par le système d'acquisition à rayons X et l'image simulée à partir du maillage triangulaire 3D de la pièce 2.
En référence à la figure 8, une image réelle 20 de la pièce à contrôler 2 obtenue par le système d'acquisition à rayons X et une image de référence 22, sans défauts, obtenue à partir d'un maillage triangulaire 3D de la pièce 2 sont enregistrées dans une mémoire module de calcul. Au préalable, afin de s'affranchir des écarts géométriques dus à la variabilité de la position spatiale de la pièce 2 lors de son positionnement par le robot, les coordonnées 3D de l'image de référence 22 sont recalées numériquement sur la position de la pièce dans le repère radiographique utilisé lors de l'acquisition de l'image réelle 20. L'image réelle 20 et l'image de référence 22 sont ensuite fournies au module de traitement d'images 24 qui génère un premier vecteur VI de caractéristiques/descripteurs d'image au niveau de chaque pixel de l'image réelle 20 et un deuxième vecteur V2 de caractéristiques/descripteurs d'image au niveau de chaque pixel de l'image de référence 22. Les vecteurs VI et V2 sont fournis au module de comparaison 26 pour effectuer une comparaison pixel par pixel en calculant des caractéristiques d'image, préalablement déterminée par apprentissage statistique, et une valeur de mesure de similarité spécifique à l'application. La mesure de similarité peut être par exemple une distance Euclidéenne, une norme 1 du vecteur différence entre les deux vecteurs ou une distance de Mahalanobis...). Les positions de défauts auront des valeurs de similarité différentes de celles des zones saines.
Les étapes du procédé sont décrites en référence à la figure 9.
Comme on peut le voir sur la figure 9, le procédé selon l'invention comporte une phase d'apprentissage statistique supervisée qui permet au module de calcul d'apprendre caractéristiques/descripteurs d'image au niveau de chaque pixel de l'image de référence 22 et son voisinage restreint (patch ou imagette) et la mesure de similarité entre les caractéristiques de chaque pair de patchs, pour détecter la présence d'un défaut au niveau de patch de l'image à contrôler.
Notons qu'initialement, une base d'images réelles annotées est constituée dans laquelle de potentiels défauts sont préalablement localisés sur chacune de ces images réelles par des experts. La base d'images réelles est ensuite augmentée par des images de références simulées qui ne contiennent pas de défaut. Pour chaque image réelle une image de référence correspondante est générée à partir du recalage du modèle 3D et ensuite par simulation.
A l'étape 30 (respectivement l'étape 32), des données numériques issues de la CAO (Conception assistées par ordinateur) (respectivement des images d'apprentissage sont extraites de la mémoire du module de calcul.
A l'étape 34, les données numériques issues de la CAO (représentant l'ensemble de coordonnées de l'image de la pièce 20 sont extraites d'un modèle 3D de cette pièce) sont alignées sur les images d'apprentissage.
A l'étape 36, les coordonnées de l'image de la pièce 20 extraites du modèle 3D sont recalées numériquement sur l'espace 3D de l'image de référence.
Les coordonnées recalées numériquement sur l'espace 3D de l'image de référence sont fournies à un simulateur du système d'acquisition associé au module de calcul qui génère, à l'étape 38, l'image de référence 22.
A l'étape 40, le module de calcul extrait des vecteurs caractéristiques/descripteurs d'image au niveau de chaque pixel de caractéristiques respectivement de l'image d'apprentissage et de l'image de référence. A l'étape 42, les vecteurs subissent un traitement destiné à déterminer les pertes de l'apprentissage par rapport à une carte de défauts réels de l'image 44. Les vecteurs subissent une optimisation 46 qui génère des paramètres qui sont injectés dans la phase de test.
L'apprentissage statistique consiste à optimiser les paramètres du réseau de neurones qui permettent de minimiser la perte d'apprentissage représentant la différence entre l'annotation manuelle et la prédiction du réseau de neurones.
Le vecteur caractéristique d'un pixel est le résultat de convolutions appliqué sur ce pixel et son voisinage.
Le procédé selon l'invention permet ainsi d'automatiser la tâche d'observation afin de pouvoir contrôler, en un temps réduit, un grand nombre de pièces de différentes formes et de différentes compositions.

Claims

REVENDICATIONS
1. Procédé de contrôle automatique non destructif de pièces mécaniques (4) mettant en œuvre un système radiographique d'acquisition d'images, caractérisé en ce qu'il comporte les étapes suivantes :
-acquérir au moins une image réelle (20) d'une pièce à contrôler (4) susceptible de contenir des indications de défauts potentiels,
-effectuer un recalage 2D-3D d'un modèle 3D de la pièce à contrôler (4) de manière à estimer la pose 3D de ladite pièce lors de l'acquisition de ladite image réelle (20),
-simuler les conditions opératoires d'acquisition de l'image réelle (20) de la pièce à contrôler (4) à partir de la pose 3D estimée de ladite pièce pour générer une image de référence (22) sans défauts de ladite pièce,
-générer, au moyen d'un module de traitement d'images (24), pour chaque pixel de l'image réel (20) un premier vecteur de caractéristiques qui décrit le pixel et son voisinage et pour chaque pixel de l'image de référence (22) un deuxième vecteur de caractéristiques,
-comparer le vecteur de caractéristiques de chaque pixel de l'image réelle (20) au vecteur de caractéristiques du pixel correspondant de l'image de référence (22) générée, ladite comparaison utilisant une mesure de similarité entre les deux vecteurs,
-déduire une carte de défauts de la pièce contrôlée à partir de la comparaison desdits vecteurs de caractéristiques de pixels d'image.
2. Procédé selon la revendication 1 dans lequel lesdits vecteurs caractéristiques d'image sont obtenus par calcul de descripteurs d'image au niveau de chaque pixel estimés par un apprentissage profond à base de réseaux de neurones convolutionels de l'image réelle et de l'image de référence.
3. Procédé selon la revendication 2 comportant en outre les étapes suivantes :
-constituer une base de données comportant une pluralité de paires d'images réelles et d'images de référence correspondantes,
-localiser manuellement un potentiel défaut sur l'image réelle,
-réaliser un apprentissage statistique supervisé qui prend en entrée un ensemble de triplets constitués de l'image réelle (20), l'image de référence (22) générée et les positions des défauts dans l'image réelle et un réseau de neurones convolutionnel profond et qui génère un réseau de neurones optimisé qui permet de calculer un vecteur caractéristique d'image au niveau de chaque pixel et une métrique qui permet d'estimer l'écart entre deux vecteurs caractéristiques de pixels.
4. Procédé selon la revendication 2 caractérisé en ce que l'apprentissage statistique est réalisé par des réseaux siamois en parallèle partageant les mêmes poids à apprendre.
5. Procédé selon la revendication 2 caractérisé en ce que l'apprentissage statistique est réalisé par des réseaux pseudo-siamois en parallèle ayant des poids à apprendre indépendants.
6. Procédé selon la revendication 2 caractérisé en ce que l'apprentissage statistique est réalisé par un réseau à deux canaux d'entrée par couche de convolution.
7. Dispositif de contrôle automatique non destructif de pièces mécaniques mettant en œuvre un système radiographique d'acquisition d'images, caractérisé en ce qu'il comporte:
-des moyens pour acquérir au moins une image réelle (20) d'une pièce (4) à contrôler susceptible de contenir des indications de défauts potentiels, -des moyens pour effectuer un recalage 2D-3D d'un modèle 3D de la pièce à contrôler de manière à estimer la pose 3D de ladite pièce lors de l'acquisition de ladite image réelle (20),
-des moyens pour simuler les conditions opératoires d'acquisition de l'image réelle (20) de la pièce (4) à contrôler à partir de la pose 3D estimée de ladite pièce pour générer une image de référence (22) sans défauts de ladite pièce,
-des moyens pour générer, au moyen d'un module de traitement d'images (24), un premier vecteur de caractéristiques d'image à partir de l'image réelle (20) et un deuxième vecteur de caractéristiques d'image à partir de l'image de référence (22),
-des moyens pour comparer les vecteurs de caractéristiques d'image générés par calcul de mesure de similarité entre les deux vecteurs,
-des moyens pour déduire une carte de défauts de la pièce contrôlée à partir de la comparaison desdits vecteurs de caractéristiques d'image.
8. Dispositif selon la revendication 6 ca ractérisé en ce qu'il com porte en outre:
-une base de données comportant une pluralité de paires d'images réelles et d'images de référence correspondantes,
-un module d'apprentissage statistique supervisé qui optimise les paramètres du réseau de neurones convolutionnel profond.
9. Programme d'ordinateur mémorisé sur un support d'enregistrement et comportant des instructions pour réaliser les étapes du procédé lorsqu'il est exécuté sur un ordinateur.
10. Support d'enregistrement lisible par un ordinateur sur lequel est enregistré un programme d'ordinateur comprenant des instructions pour l'exécution des étapes du procédé selon l'une quelconque des revendications 1 à 7.
PCT/FR2018/052024 2017-08-10 2018-08-06 Procédé de contrôle automatique non destructif de pièces mécaniques Ceased WO2019030449A1 (fr)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FR1757646A FR3070084B1 (fr) 2017-08-10 2017-08-10 Procede de controle automatique non destructif de pieces mecaniques
FR1757646 2017-08-10

Publications (1)

Publication Number Publication Date
WO2019030449A1 true WO2019030449A1 (fr) 2019-02-14

Family

ID=61258297

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/FR2018/052024 Ceased WO2019030449A1 (fr) 2017-08-10 2018-08-06 Procédé de contrôle automatique non destructif de pièces mécaniques

Country Status (2)

Country Link
FR (1) FR3070084B1 (fr)
WO (1) WO2019030449A1 (fr)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020002704A1 (fr) 2018-06-29 2020-01-02 Universiteit Antwerpen Inspection d'article par sélection dynamique d'angle de projection
JP2021189050A (ja) * 2020-05-29 2021-12-13 株式会社東芝 非破壊構造解析装置、非破壊構造検査装置および非破壊構造解析方法
CN114092386A (zh) * 2020-05-26 2022-02-25 富士通株式会社 缺陷检测方法和设备
CN115088061A (zh) * 2020-03-06 2022-09-20 株式会社日立高新技术 试样观察系统以及图像处理方法
US20230366838A1 (en) * 2020-09-23 2023-11-16 Anritsu Corporation X-ray inspection apparatus and x-ray inspection method
WO2023232891A1 (fr) * 2022-05-31 2023-12-07 Deltaray Bv Système d'imagerie par rayonnement pour l'inspection d'articles ayant une pose incertaine et procédé associé

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0580481A1 (fr) * 1992-07-20 1994-01-26 Commissariat A L'energie Atomique Procédé de réalisation d'une image de référence synthétisée à partir de données contenues dans une base de données CAO
EP0667215A1 (fr) * 1994-01-28 1995-08-16 Thomson Broadband Systems Procédé d'asservissement d'un robot dans l'espace à trois dimensions et robot évoluant dans un tel espace
US20020054694A1 (en) * 1999-03-26 2002-05-09 George J. Vachtsevanos Method and apparatus for analyzing an image to direct and identify patterns
US20100220910A1 (en) * 2009-03-02 2010-09-02 General Electric Company Method and system for automated x-ray inspection of objects
WO2016090044A1 (fr) * 2014-12-03 2016-06-09 Kla-Tencor Corporation Classification automatique de défauts sans échantillonnage et sélection de caractéristiques
US20170200260A1 (en) * 2016-01-11 2017-07-13 Kla-Tencor Corporation Accelerating semiconductor-related computations using learning based models

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0580481A1 (fr) * 1992-07-20 1994-01-26 Commissariat A L'energie Atomique Procédé de réalisation d'une image de référence synthétisée à partir de données contenues dans une base de données CAO
EP0667215A1 (fr) * 1994-01-28 1995-08-16 Thomson Broadband Systems Procédé d'asservissement d'un robot dans l'espace à trois dimensions et robot évoluant dans un tel espace
US20020054694A1 (en) * 1999-03-26 2002-05-09 George J. Vachtsevanos Method and apparatus for analyzing an image to direct and identify patterns
US20100220910A1 (en) * 2009-03-02 2010-09-02 General Electric Company Method and system for automated x-ray inspection of objects
WO2016090044A1 (fr) * 2014-12-03 2016-06-09 Kla-Tencor Corporation Classification automatique de défauts sans échantillonnage et sélection de caractéristiques
US20170200260A1 (en) * 2016-01-11 2017-07-13 Kla-Tencor Corporation Accelerating semiconductor-related computations using learning based models

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
C.-P. LU; G. D. HAGER; E. MJOLSNESS: "Fast and globally convergent pose estimation from video images", T PAMI, 2000
MARKELJ P1 ET AL.: "A review of 3D/2D registration methods for image-guided interventions", MEDICAL IMAGE ANALYSIS, 2012
Y.I. ABDEL-AZIZ; H.M. KARARA: "Direct linear transformation from comparator coordinates into object space coordinates in close-range photogrammetry", IN PROC. ASP/UI SYMP. CLOSE-RANGE PHOTOGRAMMETRY, 1971
Y.I. ABDEL-AZIZ; H.M. KARARA: "Direct linear transformation from comparator coordinates into object space coordinates in close-range photogrammetry", PROC. ASP/UI SYMP. CLOSE-RANGE PHOTOGRAMMETRY, 1971

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020002704A1 (fr) 2018-06-29 2020-01-02 Universiteit Antwerpen Inspection d'article par sélection dynamique d'angle de projection
CN115088061A (zh) * 2020-03-06 2022-09-20 株式会社日立高新技术 试样观察系统以及图像处理方法
CN114092386A (zh) * 2020-05-26 2022-02-25 富士通株式会社 缺陷检测方法和设备
JP2021189050A (ja) * 2020-05-29 2021-12-13 株式会社東芝 非破壊構造解析装置、非破壊構造検査装置および非破壊構造解析方法
JP7451306B2 (ja) 2020-05-29 2024-03-18 株式会社東芝 非破壊構造解析装置、非破壊構造検査装置および非破壊構造解析方法
US20230366838A1 (en) * 2020-09-23 2023-11-16 Anritsu Corporation X-ray inspection apparatus and x-ray inspection method
EP4220142A4 (fr) * 2020-09-23 2024-10-23 Anritsu Corporation Dispositif d'inspection par rayons x et procédé d'inspection par rayons x
US12313572B2 (en) * 2020-09-23 2025-05-27 Anritsu Corporation X-ray inspection apparatus and X-ray inspection method
WO2023232891A1 (fr) * 2022-05-31 2023-12-07 Deltaray Bv Système d'imagerie par rayonnement pour l'inspection d'articles ayant une pose incertaine et procédé associé

Also Published As

Publication number Publication date
FR3070084A1 (fr) 2019-02-15
FR3070084B1 (fr) 2019-08-30

Similar Documents

Publication Publication Date Title
FR3070084B1 (fr) Procede de controle automatique non destructif de pieces mecaniques
CN110110617B (zh) 医学影像分割方法、装置、电子设备和存储介质
CN111524135B (zh) 基于图像增强的输电线路细小金具缺陷检测方法及系统
CN110555908B (zh) 基于室内移动目标背景修复的三维重建方法
TWI737659B (zh) 半導體試樣的基於深度學習之檢查的方法及其系統
US10217293B2 (en) Depth camera-based human-body model acquisition method and network virtual fitting system
JP6807639B2 (ja) 奥行きカメラを校正する方法
CN113393439A (zh) 一种基于深度学习的锻件缺陷检测方法
US8010315B2 (en) Multi-modality inspection method with data validation and data fusion
TW201732979A (zh) 光學晶粒對資料庫檢查
CN110133014B (zh) 一种芯片内部缺陷检测方法及系统
WO2020064323A1 (fr) Procédé et système de contrôle non destructif d'une pièce aéronautique par recalage de contour
Liu et al. CurveFusion: Reconstructing thin structures from RGBD sequences
CN113116377A (zh) 超声成像导航方法、超声设备及存储介质
EP0141706B1 (fr) Procédé et appareillage pour déterminer l'attitude d'un objet dans l'espace par rapport à un poste d'observation
FR3065097B1 (fr) Procede automatise de reconnaissance d'un objet
Eastwood et al. Autonomous close-range photogrammetry using machine learning
CN111950433B (zh) 光学卫星影像特征匹配深度学习训练样本集自动构建方法
CN112912924B (zh) 预测算法分割的正确性
CN112785503A (zh) 一种用于大型电力设备x射线检测的图像拼接方法
CN118781076A (zh) 一种基于深度卷积自编码器的艺术品缺陷检测方法
CN115761407B (zh) 一种工业通用零件6d位姿数据集的构建方法
JP7562851B2 (ja) コンポーネントを分析する方法、システムをトレーニングする方法、デバイス、コンピュータプログラム及びコンピュータ可読記憶媒体
CN114596336B (zh) 基于YOLOv3的复杂场景激光跟踪仪靶球球心定位方法及装置
TWI840833B (zh) 多尺度自編碼器生成方法、電腦設備及儲存介質

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18762376

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 18762376

Country of ref document: EP

Kind code of ref document: A1