WO2022038233A1 - Procédé de caractérisation d'une pièce par contrôle non destructif - Google Patents
Procédé de caractérisation d'une pièce par contrôle non destructif Download PDFInfo
- Publication number
- WO2022038233A1 WO2022038233A1 PCT/EP2021/073061 EP2021073061W WO2022038233A1 WO 2022038233 A1 WO2022038233 A1 WO 2022038233A1 EP 2021073061 W EP2021073061 W EP 2021073061W WO 2022038233 A1 WO2022038233 A1 WO 2022038233A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- neural network
- database
- defect
- measurements
- block
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Ceased
Links
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01N—INVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
- G01N29/00—Investigating or analysing materials by the use of ultrasonic, sonic or infrasonic waves; Visualisation of the interior of objects by transmitting ultrasonic or sonic waves through the object
- G01N29/44—Processing the detected response signal, e.g. electronic circuits specially adapted therefor
- G01N29/4481—Neural networks
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01N—INVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
- G01N21/00—Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
- G01N21/84—Systems specially adapted for particular applications
- G01N21/88—Investigating the presence of flaws or contamination
- G01N21/8851—Scan or image signal processing specially adapted therefor, e.g. for scan signal adjustment, for detecting different kinds of defects, for compensating for structures, markings, edges
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01N—INVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
- G01N23/00—Investigating or analysing materials by the use of wave or particle radiation, e.g. X-rays or neutrons, not covered by groups G01N3/00 – G01N17/00, G01N21/00 or G01N22/00
- G01N23/02—Investigating or analysing materials by the use of wave or particle radiation, e.g. X-rays or neutrons, not covered by groups G01N3/00 – G01N17/00, G01N21/00 or G01N22/00 by transmitting the radiation through the material
- G01N23/06—Investigating or analysing materials by the use of wave or particle radiation, e.g. X-rays or neutrons, not covered by groups G01N3/00 – G01N17/00, G01N21/00 or G01N22/00 by transmitting the radiation through the material and measuring the absorption
- G01N23/18—Investigating the presence of flaws defects or foreign matter
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01N—INVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
- G01N25/00—Investigating or analyzing materials by the use of thermal means
- G01N25/72—Investigating presence of flaws
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01N—INVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
- G01N27/00—Investigating or analysing materials by the use of electric, electrochemical, or magnetic means
- G01N27/72—Investigating or analysing materials by the use of electric, electrochemical, or magnetic means by investigating magnetic variables
- G01N27/82—Investigating or analysing materials by the use of electric, electrochemical, or magnetic means by investigating magnetic variables for investigating the presence of flaws
- G01N27/90—Investigating or analysing materials by the use of electric, electrochemical, or magnetic means by investigating magnetic variables for investigating the presence of flaws using eddy currents
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
- G06N3/0455—Auto-encoder networks; Encoder-decoder networks
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/09—Supervised learning
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/096—Transfer learning
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01N—INVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
- G01N2291/00—Indexing codes associated with group G01N29/00
- G01N2291/26—Scanned objects
Definitions
- the technical field of the invention is the interpretation of measurements by non-destructive testing carried out on a mechanical part or part of a structure.
- NDT meaning Non-destructive Testing
- the objective is to carry out a check and/or detect and monitor the appearance of structural defects. This involves monitoring the integrity of a controlled part, so as to prevent the occurrence of accidents, or to extend the period of use of the part under good safety conditions.
- NDT is commonly implemented in sensitive equipment, so as to optimize replacement or maintenance.
- the applications are numerous in the control of industrial equipment, for example in oil exploitation, in the nuclear industry, or in transport, for example in aeronautics.
- the sensors used in the NDT are non-destructive sensors, causing no damage to the parts checked.
- the controlled parts can be structural elements of industrial equipment or aircraft, or civil engineering works, for example bridges or dams.
- the methods used are varied. They can for example implement X-rays, or ultrasonic waves or detection by eddy currents.
- the sensors are connected to computer means, so as to be able to interpret the measurements made.
- the presence of a defect, in a part, leads to a signature of the defect, measurable by a sensor.
- the computer means perform an inversion. This involves, from the measurements, obtaining quantitative data relating to the defect, for example its position, or its shape, or its dimensions.
- the inversion can be performed by taking into account direct analytical models, for example polynomial models, making it possible to establish a relationship between the characteristics of a defect and measurements resulting from a sensor.
- the inversion of the model allows an estimation of said characteristics from measurements taken.
- the characteristics of the defects can be estimated by implementing supervised artificial intelligence algorithms, for example neural networks.
- supervised artificial intelligence algorithms for example neural networks.
- a difficulty linked to the use of neural networks is the use of a learning phase that is as complete as possible, so as to optimize the performance of the estimation. It takes time and requires a lot of data.
- the inventors propose a method addressing this question. The objective is to facilitate the learning of a neural network intended to perform an inversion, while maintaining good performance in estimating the characteristics of the defect.
- a first object of the invention is a method for characterizing a part, the part being likely to comprise a defect, the method comprising the following steps: a) carrying out non-destructive measurements using a sensor, the sensor being placed on the part or facing the part; b) formation of at least one measurement matrix using the measurements carried out during step a); c) use of the matrix as input data for a convolutional neural network, the convolutional neural network comprising:
- an extraction block configured to extract characteristics from each input data
- a classification block configured to carry out a classification of the characteristics extracted by the extraction block, the classification block leading to an output layer comprising at least one node; d) depending on the value of each node of the output layer, detection of the presence of a defect in the part, and possible characterization of the detected defect; the method comprising, prior to steps c) and d):
- a first database comprising measurements carried out or simulated, on a first model part, according to a first configuration, the first configuration being parameterized by parameters, the first database being formed by considering at least one variable parameter and at least one fixed parameter;
- a first neural network comprising an extraction block and a processing block, the processing block being configured to process characteristics extracted by the extraction block, the first neural network being first trained, using the first database; the method being characterized in that it also comprises:
- a constitution of a second database comprising measurements carried out or simulated on a second model part, representative of the characterized part, according to a second configuration, the second configuration being parameterized by modifying at least one fixed parameter of the first configuration ;
- the second convolutional neural network comprising the extraction block of the first neural network, and a classification block, the latter being configured during the second learning;
- the neural network used is the second convolutional neural network, resulting from the second learning.
- measurement is meant a measurement of a physical quantity liable to vary in the presence of a defect in the part. It can be an acoustic, electric, electrostatic, magnetic, electromagnetic (for example an intensity of a radiation), or mechanical quantity.
- the second configuration can notably take into account:
- the first database may comprise measurements performed or simulated on a model part comprising the defect.
- the processing block of the first neural network is a classification block, configured, during the first learning, to carry out a classification of the characteristics extracted by the extraction block, the first neural network being a convolutional neural network.
- the classification block of the second neural network can be initialized by using the classification block of the first neural network.
- the first neural network is of the auto-encoder type.
- Said processing block of the first neural network can be configured, during the first learning, to reconstruct data, coming from the first database, and forming input data of the first neural network.
- the defect may be of the type: delamination, and/or crack, and/or perforation and/or crack propagating from a perforation and/or presence of a porous zone and/or presence of an inclusion and/or or presence of corrosion.
- the part can be made of a composite material, comprising components assembled together.
- the defect can then be an assembly defect between the components.
- the measurements can be representative of a spatial distribution:
- the defect may be a variation of the spatial distribution with respect to a reference spatial distribution.
- the reference spatial distribution may have been previously modeled or established experimentally.
- the measures can be of the type:
- the process can be such as:
- the first database is made up from measurements carried out experimentally;
- the first database and the second database are formed from simulated measurements
- the first database and the second database are formed from experimental measurements.
- the first configuration and the second configuration can be parameterized by at least one of the parameters chosen from:
- the measurement conditions may include at least:
- the first model part and the second model part may be identical.
- the second model part has a different shape from the first model part
- the second model part is made of a different material from the first model part.
- the second database can comprise a number of data lower than the number of data of the first database.
- Figures IA and IB schematize the implementation of eddy current measurements on a conductive part.
- Figure 2A shows the structure of a convolutional neural network.
- FIG. 2B shows the main steps of a method according to the invention.
- FIG. 3A shows a defect considered during a first example.
- FIG. 3B is an example of an image resulting from simulated measurements on the defect shown in FIG. 3A.
- FIG. 3C presents classification performances of a neural network, considering respectively measurements whose signal-to-noise ratio is respectively 5 dB (left), 20 dB (center), and 40 dB (right).
- Figure 3D shows classification performance of a neural network according to the invention, considering respectively measurements whose signal-to-noise ratio is respectively 5 dB (left), 20 dB (center), and 40 dB (right ).
- FIGS. 4A and 4B show a defect considered during a second example.
- Figure 4C presents comparative classification performance
- FIG. 5 schematizes a variant of the invention.
- FIGS IA and IB schematize an example of application of the invention.
- a sensor 1 is arranged facing a part to be inspected 10, so as to characterize the part. It may in particular be a thermal or mechanical characterization.
- thermal or mechanical characterization we mean a characterization of the thermal or mechanical properties of the part: temperature, deformation, structure.
- the part to be characterized can be a monolithic part, or a more complex part resulting from an assembly of several elementary parts, for example an airfoil of an airplane wing or a skin of a fuselage.
- the characterization may consist in detecting the possible presence of a structural defect 11.
- the sensor 1 is configured to take measurements of eddy currents generated in the part to be checked 10.
- the latter is an electrically conductive part. .
- the principle of non-destructive measurements by eddy currents is known. Under the effect of excitation by a magnetic field 12, eddy currents 13 are induced in the part
- sensor 1 is a coil, powered by an amplitude modulated current. It generates a magnetic field 12, the field lines of which are shown in Figure IA. Eddy currents 13 are induced, forming current loops on the part 10. The eddy currents 13 generate a reaction magnetic field 14, the latter acting on the impedance of the coil 1. Thus, the measurement of the impedance of coil 1 is representative of the eddy currents 13 formed in part 10. In the presence of a fault
- the eddy currents 13 are modified, which results in a variation in the impedance of the coil.
- the measurement of the impedance of the coil constitutes a signature of the fault.
- sensor 1 acts as part 10 excitation, as well as part reaction sensor in response to excitation.
- the sensor is moved along the part, parallel to it.
- the part extends along an X axis and a Y axis.
- the sensor can be moved parallel to each axis, which is materialized by the double arrows.
- a matrix of sensors can be implemented.
- a series of measurements is thus available, forming a spatial distribution, preferably two-dimensional, of a measured quantity, in this case the impedance of sensor 1. It is usual to distinguish the real and imaginary parts of the impedance.
- the measured impedance is generally compared with an impedance in the absence of a fault, so as to obtain a map of the impedance variation AH.
- a measurement matrix M can be formed, representing the real part or the imaginary part of the impedance measured at each measurement point.
- the sensor 1 is connected to a processing unit 2, comprising a memory 3 comprising instructions to enable the implementation of a measurement processing algorithm, the main steps of which are described below.
- the processing unit is usually a computer, connected to a screen 4.
- the measurement matrix M corresponds to a spatial distribution of the response of the part to excitation, each measurement being a signature of the part.
- An inversion must be carried out, so as to be able to conclude that a defect is present, and, if necessary, a characterization of the latter.
- the inversion is performed by the processing algorithm implemented by the processing unit 2.
- structural defect it is understood a mechanical defect affecting the part. It may in particular be a crack, or a delamination, or a perforation, forming for example a through hole, or a crack propagating from a hole, or from an abnormally porous.
- the structural defect can also be a presence of an inclusion of an undesirable material, or of a corroded zone.
- the structural defect may affect the surface of part 10 located opposite the sensor. It can also be located deep in the room. The type of sensor used is selected according to the fault to be characterised.
- the part to be checked 10 can be made of a composite material. It then comprises components assembled to one another. It can be an assembly of plates or fibers.
- the defect may be an assembly defect: it may be a local delamination of plates, or a decohesion of fibers or fiber strands, or non-uniformity in the orientation of fibers, or a defect resulting from an impact or shock.
- the part to be inspected 10 has mechanical properties that are spatially distributed along the part.
- the defect may be a variation in the spatial distribution of the mechanical properties with respect to a reference spatial distribution. It may for example be a part of the part, in which the mechanical properties do not correspond to reference mechanical properties, or are outside a tolerance range.
- the mechanical property can be the Young's modulus, or the density, or a speed of propagation of a wave acoustic.
- the reference spatial distribution can come from a specification, and correspond to an objective to be achieved. It can result from a model or from experimental measurements.
- the preceding paragraph also applies to electrical or magnetic properties, or else to a stress to which the part to be inspected is exposed. It may for example be a temperature stress or a mechanical stress, for example a pressure stress, to which the part is subjected during its operation.
- the characterization of the part can consist in establishing a temperature of the part, or a level of mechanical stress (force, pressure, deformation) to which the part is subjected.
- the characterization can also consist in establishing a spatial distribution of a temperature of the part or, more generally, of a stress to which the part is subjected.
- the defect is then a difference between the spatial distribution and a reference spatial distribution.
- a defect can be the appearance of a hot spot, at the level of which the temperature of the part is abnormally high compared to a reference spatial distribution of the temperature. .
- the characterization of the defect aims to determine the type of defect, among the types mentioned above. It may also include a location of the fault, as well as an estimate of all or part of its dimensions.
- the processing of the measurements can be carried out by implementing a supervised artificial intelligence algorithm, for example based on a neural network.
- the learning of the algorithm can be carried out by constituting a database formed from measurements carried out or simulated on a part comprising a defect whose characteristics are known: type of defect, dimensions, location, possibly porosity or other physical quantity to characterize the defect.
- the database can be established by simulation, using dedicated simulation software.
- An example of dedicated software is the CIVA software (supplier: Extende), which notably makes it possible to simulate different non-destructive testing methods: ultrasound propagation, eddy current effects and X-ray radiography.
- CIVA software supplied: Extende
- Such software makes it possible to simulate measurements from of a model of the part.
- the use of such software can make it possible to constitute a database allowing the learning of the artificial intelligence algorithm used.
- FIG. 2A schematizes the architecture of such a network.
- the convolutional neural network includes a feature extraction block Ai, connected to a processing block Bi.
- the processing block is configured to process the features extracted from the extraction block Ai.
- the processing block Bi is a classification block. It allows a classification based on the features extracted by the extraction block Ai.
- the convolutional neural network is fed by input data Ain, which correspond to one or more images.
- the input data form an image, obtained by a concatenation of two images representing respectively the real part and the imaginary part of the variation in impedance AH measured at different measurement points, regularly distributed, facing the room, according to a matrix arrangement.
- the feature extraction block Ai comprises J layers Ci...Cj...Cj downstream of the input data. J being an integer greater than or equal to 1.
- Each layer Cj is obtained by applying a convolution filter to the images of a previous layer Cj-i.
- the index j is the rank of each layer.
- the layer Co corresponds to the input data Ai n .
- the parameters of the convolution filters applied to each layer are determined during training.
- the last layer Cj can include a number of terms exceeding several tens, or even several hundreds, or even several thousands. These terms correspond to features extracted from each image forming the input data.
- the method may include dimension reduction operations, for example operations usually designated by the term “pooling”. This involves replacing the values of a group of pixels by a single value, for example the average, or the maximum value, or the minimum value of the group considered.
- the last layer Cj is the subject of an operation usually designated by the term “Flatten” (flattening), so that the values of this layer form a vector.
- the classification block Bi is an interconnected neural network, usually designated by the term “fully connected” or multilayer perceptron. It has a Bin input layer, and a Bout output layer.
- the input layer Bin is formed by the characteristics of the vector resulting from the extraction block Ai. Between the Bin input layer and the Bout output layer, one or more hidden layers H can be provided. There is thus successively the input layer B in , each hidden layer H and the output layer B out .
- Each layer can be assigned a rank k.
- Each layer comprises nodes, the number of nodes of a layer being able to be different from the number of nodes of another layer.
- the value of a node y nk of a layer of rank k is such that
- WHERE is the value of a node of the previous layer k — 1, m representing an order of the node of the previous layer, m being an integer between 1 and Mu, Mu corresponding to the dimension of the previous layer, of rank k — 1; b m is a bias associated with each node y mk -i of the previous layer; f n is an activation function associated with the node of order n of the considered layer, n being an integer between 1 and Mk, Mk corresponding to the dimension of the layer of rank kw mn is a weighting term for the node of order m of the previous layer (rank k-1) and the node of order n of the layer considered (rank k).
- each activation function f n is determined by a person skilled in the art. It may for example be an activation function f n of hyperbolic or sigmoid tangent type.
- the output layer B or t comprises values making it possible to characterize a defect identified by the images of the input layer A in . It constitutes the result of the inversion carried out by the algorithm.
- the output layer may have only one node, taking the value 0 or 1 depending on whether the analysis reveals the presence of a defect or not.
- the output layer can comprise as many nodes as defect types considered, each node corresponding to a probability of presence of a type of defect among predetermined types (crack, hole, delamination, etc.). ).
- the output layer can comprise as many nodes as dimensions of a defect, which supposes taking into account a geometric model of defect.
- the output layer can include coordinates indicating the position, two-dimensional or three-dimensional, of a defect in the part.
- the output layer can contain information about the inspected part, for example a spatial distribution of mechanical properties (for example Young's modulus), or electrical or magnetic or thermal (for example temperature) or geometric (for example at least one dimension of the part).
- the dimension of the output layer corresponds to a number of points of the part in which the mechanical property is estimated on the basis of the input data.
- the applications can be combined, so as to obtain both location and dimensioning, or location, identification and dimensioning.
- the extraction block Ai can be established, for a measurement modality, using learning that is as exhaustive as possible, called first learning, taking into account a large database.
- the classification block can be adapted to different specific cases, in which the measurement modality is implemented.
- the invention makes it possible to parameterize different classification blocks Bi, B 2 , for different applications, while keeping the same extraction block Ai.
- the extraction block Ai and a first classification block Bi are parameterized.
- the first learning phase is implemented using a first DBi database, established according to a first configuration, by considering a first model part.
- the method includes the use of a second database DB 2 , on the basis of which a second learning is carried out.
- the second database is established according to a second configuration, different from the first configuration.
- the first configuration is parameterized by different parameters Pi, i being an integer identifying each parameter.
- These parameters may include in particular:
- Pi constitution of the database: experimental data or simulated data, or simulated data with different levels of precision or fidelity
- P2 shape of the model part considered
- P4 measurement conditions, for example acquisition time, positioning of the sensor relative to the part, references of the sensor used or modeled, environmental parameters (temperature, humidity, possibly pressure), measurement noise, type of processing performed on the measurements to estimate a property of the part, whether it is an electrical, magnetic or mechanical property;
- the first database DBi comprises different images, representative of measurements carried out or simulated on the first model part, by varying certain parameters Pj, called variable parameters, while other parameters P ⁇ j are fixed for all the images from the first database.
- the first DBi database is formed by only varying the parameter P 8 , representing the dimensions of the defect considered, while the parameters Pi to P 7 are constant.
- variable parameters correspond to the characteristics intended to be estimated by the neural network.
- the first database DBi may comprise a first number of images Ni which may exceed several hundreds, or even several thousands.
- the first neural network, formed by the combination of the blocks Ai and Bi is then supposed to present a satisfactory prediction performance.
- An important element of the invention is to be able to use the first learning to perform the second learning, according to a different configuration.
- different configuration it is understood that at least one of the fixed parameters of the first configuration is modified.
- the following examples show different possibilities for modifying a parameter: Modification of the first parameter Pi: the second learning is carried out by considering experimental measurements, in-situ, whereas the first learning is carried out by considering simulated measurements or carried out under laboratory conditions (or any other combination of experimental measurements and simulation). According to one possibility, the level of precision of the first database DBi and of the second database DB 2 are different.
- the first learning and the second learning are carried out based on simulated measurements with a respectively low and high level of precision:
- the first database can be obtained by a first analytical model, fast but not very precise, while the second database can result from a semi-analytical, numerical or stochastic model, slower to implement but more precise.
- the first database can be obtained with a sensor generating less precise measurements than the sensor used to constitute the second database.
- the number of sensors used (or simulated) can be different during the constitution of each database.
- Modification of the second parameter P 2 the second learning is carried out by considering a second model part, the shape of which is different from the first model part: the second model part can be rounded or curved while the first model part is flat.
- the first learning can for example be performed on a model part whose geometry is simple, easily modeled, or easy to manufacture.
- the second learning can then be carried out by considering a part whose geometry is more complex, and corresponds more to reality.
- Modification of the third parameter P3 the second learning is carried out by considering a second model part whose material has a different composition from the first model part: it can for example be a different alloy, or a realistic alloy, exhibiting a certain variability compared to a theoretical alloy considered during the first learning. The same reasoning applies to a composite material.
- Modification of the fourth parameter P 4 the measurement conditions taken into account in the second learning are different than during the first learning.
- the position of the sensor relative to the model part is different, or the temperature or humidity to which the sensor is exposed is different.
- the type of sensor may also be different.
- the second learning can be carried out by taking into account a realistic response of the sensor, including for example taking into account the measurement noise.
- the first database can be obtained by using a sensor (or a simulation) assigned a level of noise and/or uncertainty different from the sensor making it possible to obtain the second database.
- Modification of the fifth parameter P 5 the second learning is carried out by considering a number and/or a type of fault different from that considered in the first learning
- the first learning is carried out by fixing certain parameters. At least one of these parameters is modified during the second training, to constitute the second DB2 database.
- An important aspect of the invention is that during the second learning, the extraction block Ai, resulting from the first learning, is retained. It is considered that the first learning is sufficiently exhaustive for the performance of the extraction block, in terms of extraction of characteristics of the images supplied as input, to be considered sufficient.
- the extraction block can then be used during the second learning. In other words, the characteristics extracted by the block Ai constitute a good descriptor of the measurements forming the input layer.
- the second learning is thus limited to an update of the parameterization of the classification block, so as to obtain a second classification block B2 adapted to the configuration of the second learning.
- the second learning can then be implemented with a second DB2 database comprising less data than the first database.
- the second classification block B2 can be initialized by taking into account the parameters governing the first classification block Bi.
- the second classification block B2 may comprise the same number of hidden layers as the first classification block Bi. The latter can have the same number of nodes as the layers of the first classification block.
- the dimension of the output layer depends on the characteristics of the defect to be estimated. Also, the dimension of the layer of output of the second classification block B2 may be different from that of the first classification block Bi.
- the number of hidden layers and/or the dimension of the hidden layers of the second classification block is different from the number of hidden layers and/or the dimension of the hidden layers of the first classification block.
- the advantage of the invention is that with a sufficiently complete first learning, the second learning can be established by considering a number of data significantly lower than the number of data used to carry out the first learning. By significantly lower number of data, we mean at least 10 times or even 100 times less data.
- the second database DB2, formed to establish the second training, is smaller than the first database DBi.
- the method allows an implementation of a first learning in laboratory conditions, on the basis of simulations or optimized experimental conditions.
- This first learning is followed by a second learning closer to the reality of the field: taking into account experimental measurements, and/or more realistic measurement conditions, or a more complex shape or constitution of the part.
- the invention makes it possible to limit the number of measurements necessary for the second learning, while making it possible to obtain a neural network exhibiting good prediction performance. This is an important advantage, since acquiring measurements under realistic conditions is usually more complex than obtaining measurements in the laboratory or simulated measurements.
- the second learning can allow the taking into account of non-modelable specificities, for example measurement noise, or variations relative to the composition or to the shape of the part.
- Another advantage of the invention is to be able to use a first learning, carried out on a part made of a certain material, to carry out a second “frugal” learning, on a similar part, of a different material.
- the first learning can be perceived as a general learning, being suitable for different particular applications, or for different types or shapes of parts, or for different types of defects. It is essentially intended to have an extraction block Ai making it possible to extract relevant characteristics from the input data.
- the second learning is more targeted learning, on a particular application, or on a particular type of part, or on a particular type of defect.
- the invention facilitates obtaining the second training, because it requires significantly less input data than the first training.
- the same first learning can be used to perform different second learnings, corresponding respectively to different configurations.
- the first training can be performed on a first database that is relatively easy to obtain, compared to the second database. This makes it possible to provide a first more exhaustive database, taking into account for example a great variability in the dimensions and/or in the shape of the defect.
- FIG. 2B The main steps of the invention are schematized in FIG. 2B.
- Step 100 constitution of the first DBi database.
- the first DBi database is formed according to a first configuration.
- the first configuration is parameterized by first parameters, some of these first parameters being fixed.
- the first database is formed of images representative of measurements obtained (performed or simulated) according to the first configuration.
- Step 110 first learning.
- the first database is used to parameterize the blocks Ai and Bi, so as to optimize the prediction performance of a first convolutional neural network CNNi.
- Step 120 constitution of the second database DB 2 .
- the second database DB 2 is formed according to a second configuration. As previously described, at least one parameter, considered fixed during the first configuration, is modified.
- the size of the second database is preferably at least 10 times smaller than the size of the first database.
- Step 130 second learning.
- the second database DB 2 is used to train a second convolutional neural network CNN 2 formed by the first extraction block Ai, resulting from the first training, and a second block of classification B 2 , specific to the configuration adopted during the second learning.
- the configuration relating to the second learning can correspond to conditions considered to be close to the measurement conditions.
- the neural network convolutional CNN2 resulting from the second training is intended to be implemented to interpret measurements carried out on examined parts. This is the subject of the next step.
- Step 200 performing measurements
- Measurements are taken, on an examined part, according to the measurement configuration considered during the second learning.
- Step 210 Interpretation of the measurements
- the convolutional neural network CNN2 resulting from the second learning, is used to estimate the characteristics of a defect possibly present in the part examined, from the measurements carried out during step 200. These characteristics can be established from the output layer B or t of the CNN2 convolutional neural network. This network is therefore used to perform the step of inverting the measurements.
- FIG. 3A represents a simple defect, of the T-crack type, having 7 position or dimension characteristics: characteristics X1, X2 and X4 are lengths or widths of two branches along a plane P X Y; the characteristics X5 and X6 are depths of the two branches perpendicular to the plane P X Y; the characteristic X3 is an angular characteristic; characteristics X7 and X8 are characteristics of position of the defect in the plan PXY-
- Measurements carried out according to an eddy current modality were simulated, by describing a scan consisting of 41 ⁇ 46 measurement points at a distance of 0.3 mm above the part.
- the part was a flat metal part.
- the regular plot represented in FIG. 3A illustrates the movement of the sensor along the part, parallel to the plane P X Y.
- the image formed in FIG. 3B is an image of the real part of the variation in impedance AH.
- the variation in impedance corresponds to a difference, at each measurement point, between respectively simulated impedances in the presence and in the absence of a fault in the part.
- a first learning was carried out on the basis of simulations. During the first training, 2000 images were used taking into account a very low noise level (signal to noise ratio of 40 dB). Each input image is a concatenation of an image of the real part and of an image of the imaginary part of the impedance variation AH measured at each measurement point. During this learning, the dimensions of the defect were varied, the shape remaining the same.
- the first learning made it possible to parameterize a first convolutional neural network CNNi, comprising a first extraction block Ai and a first classification block Bi as previously described.
- the input layer comprises two images, corresponding respectively to the real part and to the imaginary part of the variation in impedance AH at the different measurement points.
- the extraction block Ai comprises four convolution layers Ci to C4 such that:
- Ci is obtained by applying 32 convolution kernels of 5x5 dimensions to the two input images.
- C2 is obtained by applying 32 convolution kernels of dimensions 3x3 to the layer Ci.
- C3 is obtained by applying 64 convolution kernels of dimensions 3 ⁇ 3 to the layer C 2 .
- a Maxpooling operation (grouping according to a maximum criterion) by groups of 2x2 pixels is performed between layers C2 and C3 as well as between layer C3 and layer C4, the latter being converted into a vector of dimension 1024.
- the dimension vector 1024 from the extraction block Ai constitutes the input layer Bin of a fully connected classification block Bi comprising a single hidden layer H (512 nodes), connected to an output layer Bout.
- the latter is a vector of dimension 8, each term corresponding respectively to an estimate of dimensions XI to X8.
- the first CNNi convolutional neural network was tested to estimate the 8 dimensional parameters X1 to X8 shown in Figure 3A.
- simulated test images were used, representative of experimental measurements with three levels of signal to noise ratio (SNR), respectively 5dB (low signal to noise ratio), 20 dB (medium signal to noise ratio), and 40 dB (high signal-to-noise ratio).
- SNR signal to noise ratio
- 5dB low signal to noise ratio
- 20 dB medium signal to noise ratio
- 40 dB high signal-to-noise ratio
- the signal-to-noise ratio was simulated by adding Gaussian white noise to the matrices (or images) forming the input layer of the neural network.
- Figure 3C shows the XI dimension prediction performance using test images whose signal-to-noise ratio is 5 dB (left), 20 dB (center), 40 dB (right), respectively.
- the abscissa axis corresponds to the true values
- the ordinate axis corresponds to the values estimated by the neural network CNNi. It is observed that the prediction performances are not satisfactory when the signal-to-noise ratio does not correspond to that which was considered during learning. On the other hand, the estimation performance is satisfactory when the signal-to-noise ratio corresponds to that considered during learning.
- indicators relating to the prediction performance have been indicated: MAE (Mean Absolute Error - Mean Absolute Error), MSE (Mean Squared Error - Mean Squared Error) and R2 (coefficient of determination).
- the inventors trained a second CNN2 neural network, using, in a second database, 20 simulated images taking into account a signal-to-noise ratio of 40 dB and 20 simulated images taking into account a signal-to-noise ratio of 5 dB, a total of 40 frames.
- the second neural network CNN2 was parameterized by keeping the extraction block Ai of the first neural network CNNi. Only the B2 classification block of the second neural network was parameterized, keeping the same number of layers and the same number of nodes per layer of the first CNNi neural network.
- FIG. 3D shows the estimation performance of the second neural network, relative to the estimation of the first dimension XI.
- Figure 3D is presented identically to Figure 3C: test images whose signal-to-noise ratio is 5 dB (left), 20 dB (center) and 40 dB (right). The estimation performances are correct whatever the signal-to-noise ratio considered.
- This first example demonstrates the relevance of the invention: it allows rapid adaptation of a neural network when passing from a first configuration to a second configuration by modifying a parameter kept fixed during the first configuration, by occurrence the signal-to-noise ratio.
- the second neural network was parameterized using a database of 40 images, ie 50 times less than the database used during training of the first neural network.
- Example 2 During a second example, the inventors went from a first learning configuration, taking into account a defect of a first predetermined shape, to a second learning configuration, based on a second shape, different from the first form.
- the second fault is shown in Figures 4A and 4B.
- the second complex defect is of the crack type forming three Ts presenting 23 position or dimension characteristics: the characteristics X1, X2, X3, X4, X5, X6 are lengths of branches along a plane PXY; the characteristics X7, X8, X9 and X10 are angles in the PXY plane;
- characteristics Xll, X12, X13, X14, X15, X16, X17, X18, X19 and X20 are position characteristics; the characteristics X21, X22, X23, not represented in FIG. 4B, are the thicknesses of each T perpendicular to the plane PXY-
- the inventors have parameterized a reference neural network CNN re f, by constituting a reference database DB re f.
- the DB reference database re f comprised 2000 images, each image being obtained by a concatenation of images of the real part and the imaginary part of the impedance variation, obtained by simulation of measurements, according to 89x69 measurement points regularly distributed according to a matrix mesh.
- the trajectory of the sensor has been shown in FIG. 4A.
- the reference neural network CNN ref was a convolutional neural network, of a structure analogous to the neural networks CNNi and CNN2 described in connection with the first example. The only differences are: the dimension of the input layer, the latter comprising two images of dimension 89 ⁇ 69, corresponding respectively to the real part and to the imaginary part of the impedance variation AH; the dimension of the output layer, comprising 23 nodes, each node corresponding to an estimate of a dimension X1 to X23.
- Curve (a) in Figure 4C shows the estimation performance (coefficient of determination) of the 23 dimensions using the reference neural network.
- the determination coefficients relating to each dimension were calculated on the basis of an application of the reference neural network to 400 different defects.
- the estimation performance is very good, which is not surprising since the reference neural network is a network specifically designed for this form of fault.
- the inventors compared the performance of the reference neural network with: on the one hand an auxiliary neural network derived from a reduced database DB aux , established in the same way as the reference database DB re f, but comprising only 50 images, corresponding to 50 sets of different dimensions, on the other hand a neural network formed according to the invention.
- the reduced DB aU x database was formed based on 50 different X1...X23 feature sets.
- the auxiliary neural network was parameterized based on this reduced database.
- the structure of the auxiliary neural network was identical to that of the reference neural network CNN ref .
- the classification performances are plotted in FIG. 4C (curve b). Unsurprisingly, the classification performance is poor, which is due to the “under-training” of the auxiliary neural network.
- the determination coefficients relating to each dimension were calculated on the basis of an application of the auxiliary neural network and of the neural network according to the invention to 400 different defects.
- a first CNNi neural network was configured, using a first DBi database comprising 2000 images resulting from simulations as described in connection with the first example, on a "simple" defect, as shown in Fig. 3A.
- the dimension of each image was 89x69.
- the input layer was formed of two images, respectively representing the real and imaginary parts of the impedance variation AH measured at 89 ⁇ 69 measurement points. As in example 1, the measurement points are regularly distributed according to a matrix mesh.
- the dimensions XI to X8 of the single defect were varied.
- auxiliary database DB aux specific to the complex defect
- a second database DB 2 to parameterize a second neural network CNN 2 , the latter using the extraction block Ai of the first neural network CNNi neurons.
- the parameterization of the second neural network is then reduced to a parameterization of the classification block B 2 of the second neural network CNN 2 .
- the latter corresponds to a neural network according to the invention.
- the classification block B 2 of the convolutional neural network CNN 2 was parameterized by modifying parameters, considered to be fixed during the constitution of the extraction block Ai of the first convolutional neural network CNNi. In this case, it is the shape of the defect.
- the extraction block Ai of the first convolutional neural network CNNi is parameterized by taking into account a simple form of defect (defect in T represented on the FIG. 3A), while the classification block B2 of the second convolutional neural network CNN2 is parameterized taking into account a different shape (complex defect comprising three Ts represented in FIG. 4B).
- the second neural network CNN 2 is a neural network according to the invention.
- the inventors implemented the second neural network on test images.
- the estimation performance of the CNN neural network 2 is represented in FIG. 4C, curve (c). It can be observed that despite a learning performed with the same database as the auxiliary network, which is a frugal database, the classification performances are superior to those of the auxiliary neural network. This confirms the advantage of the invention.
- the input data of the neural networks were formed of matrices resulting from simulations of measurements carried out according to the eddy current modality.
- the invention can be applied to other methods usually practiced in the field of non-destructive testing, provided that the input data is presented in matrix form, comparable to an image. More specifically, the other possible methods are: ultrasonic testing, in which an acoustic wave propagates through an examined part. This concerns ultrasound-type measurements, in which the measurements are generally representative of the reflection, by a defect, of an incident ultrasonic wave. This also concerns the propagation of guided ultrasonic waves.
- the physical quantities addressed are the properties of propagation of ultrasonic waves in the material, the presence of a defect resulting in a variation of the properties of propagation with respect to a part in the absence of a defect. It is possible to obtain representative images of the propagation of an ultrasonic wave along or through a part.
- Inspections by X or gamma rays according to which the examined part is subjected to irradiation by ionizing electromagnetic radiation.
- the presence of a defect results in a modification of the transmission properties of the irradiation radiation.
- the measurements make it possible to obtain images representative of the transmission of the irradiation radiation through the part examined.
- Thermography inspections according to which the examined part is subjected to illumination by electromagnetic radiation in the infra- Red.
- the presence of a defect results in a modification of the reflection properties of the illuminating radiation.
- the measurements make it possible to obtain images representative of the reflection of the illumination radiation by the part examined.
- transducers are arranged on the part, each transducer being configured to emit or detect a bending wave propagating through the plate.
- the wave propagation parameters depend on the elastic properties of the part, and in particular on the density and the Young's modulus. These depend on the room temperature.
- the propagation parameters of the bending wave make it possible to estimate the temperature of the part.
- different piezoelectric transducers are available punctually around a part of the part, several emitter/detector pairs can be defined. It is then possible to estimate a spatial distribution of the temperature in the part of the room delimited by the transducers, according to reconstruction algorithms known to those skilled in the art.
- the defect may be an anomaly in the spatial distribution of the temperature with respect to a reference spatial distribution.
- a first extraction block Ai is implemented coupled with a reconstruction block B′i.
- the reconstruction block B′i is a block for processing the data extracted by the first extraction block Ai.
- This variant implements a first neural network CNN'i, of the auto-encoder type. As represented in FIG. 5, the first neural network comprises the extraction block Ai and the reconstruction block B′i.
- a neural network of the auto-encoder type is a structure comprising an extraction block Ai, called encoder, making it possible to extract relevant information from an input datum Ain , defined in a starting space.
- the input datum is thus projected into a space, called latent space.
- the information extracted by the extraction block is called code.
- the auto-encoder comprises a reconstruction block B′i, allowing reconstruction of the code, so as to obtain an output datum A out , defined in a space generally identical to the starting space.
- the learning is carried out in such a way as to minimize an error between the input datum A in and the output data A or t.
- the code, extracted by the extraction block is considered to be representative of the main characteristics of the input data.
- the extraction block Ai allows compression of the information contained in the input datum A in .
- the first neural network can in particular be of the convolutional auto-encoder type: each layer of the extraction block Ai results from the application of a convolution kernel to a preceding layer.
- the convolution layers Ci...Cj...Cj have been represented, the layer Cj being the last layer of the extraction block Ai, comprising the code.
- the layers Di...Dj...Dj of the processing block B'i have also been shown, the layer Dj corresponding to the output datum A or t.
- the reconstruction block B′i does not aim to determine the characteristics of a defect.
- the reconstruction block allows a reconstruction of the output datum A or t, on the basis of the code (layer Cj), the reconstruction being as faithful as possible to the input datum Ai n .
- the classification block Bi and the reconstruction block B'i are used for the same purpose: to allow parameterization of the first extraction block Ai, the latter being able to be used during the second learning, to parameterize the second classification block B 2 .
- the method follows steps 100 to 210 previously described in connection with FIG. 2B.
- the first learning (step 110) consists in setting the extraction block Ai. It can be performed on the basis of at least a first database.
- the use of an auto-encoder makes it possible to combine different first databases. Some databases are representative of healthy parts, without defects, while other databases are representative of parts with a defect. For example, it is possible to combine: databases bringing together measurements taken on a healthy part, at different temperatures, in order to learn the effect of a temperature variation on the measurements; databases gathering measurements taken on a part with a defect, at a constant temperature, in order to learn the effect of the presence of a defect on the measurements.
- steps 120 to 210 are performed as previously described. This involves carrying out a second learning, on the basis of the second database, so as to parameterize a classification block B2, by using the extraction block Ai resulting from the first learning.
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Chemical & Material Sciences (AREA)
- Biochemistry (AREA)
- Analytical Chemistry (AREA)
- Pathology (AREA)
- Immunology (AREA)
- Mathematical Physics (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Computational Linguistics (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- Data Mining & Analysis (AREA)
- Biomedical Technology (AREA)
- General Engineering & Computer Science (AREA)
- Signal Processing (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Chemical Kinetics & Catalysis (AREA)
- Electrochemistry (AREA)
- Investigating Or Analyzing Materials By The Use Of Magnetic Means (AREA)
- Image Analysis (AREA)
Abstract
Procédé de caractérisation d'une pièce (10), comportant: a) réalisation de mesures à l'aide d'un capteur (11), le capteur étant disposé sur la pièce ou face à la pièce; b) formation d'au moins une matrice de mesures (M) à l'aide des mesures effectuées lors de l'étape a); c) utilisation de la matrice en tant que donnée d'entrée d'un réseau de neurones convolutif (CNN2), comportant : ‐ un bloc d'extraction (A1), configuré pour extraire des caractéristiques de chaque donnée d'entrée; ‐ un bloc de classification (B2), configuré pour effectuer une classification des caractéristiques extraites, le bloc de classification débouchant sur au moins un nœud; d) en fonction de chaque nœud, détection de la présence d'un défaut dans la pièce; Le réseau de neurones mis en œuvre lors de l'étape c) est établi en prenant en compte le bloc d'extraction d'un autre réseau de neurones préalablement paramétré.
Description
Description
Titre : Procédé de caractérisation d'une pièce par contrôle non destructif
DOMAINE TECHNIQUE
Le domaine technique de l'invention est l'interprétation de mesures par contrôle non destructif réalisées sur une pièce mécanique ou une partie d'une structure.
ART ANTERIEUR
Le CND, signifiant Contrôle Non destructif consiste à effectuer une surveillance de pièces ou de structures mécaniques, à l'aide de capteurs, de façon non destructive. L'objectif est d'effectuer un contrôle et/ou détecter et suivre l'apparition de défauts structurels. Il s'agit de suivre l'intégrité d'une pièce contrôlée, de façon à prévenir la survenue d'accidents, ou de prolonger la durée d'utilisation de la pièce dans de bonnes conditions de sécurité.
Le CND est couramment mis en œuvre dans des équipements sensibles, de façon à optimiser le remplacement ou la maintenance. Les applications sont nombreuses dans le contrôle d'équipements industriels, par exemple dans l'exploitation pétrolière, dans le nucléaire, ou dans les transports, par exemple dans l'aéronautique.
Les capteurs utilisés dans le CND sont des capteurs non destructifs, n'induisant pas de dommage sur les pièces contrôlées. Les pièces contrôlées peuvent être des éléments structurels d'équipements industriels ou d'aéronefs, ou des ouvrages de génie civil, par exemple des ponts ou des barrages. Les méthodes mises en œuvre sont variées. Elles peuvent par exemple mettre en œuvre des rayons X, ou des ondes ultrasonores ou la détection par courants de Foucault.
Lors de leur mise en œuvre, les capteurs sont reliés à des moyens informatiques, de façon à pouvoir interpréter les mesures effectuées. La présence d'un défaut, dans une pièce, entraîne une signature du défaut, mesurable par un capteur. Les moyens informatiques effectuent une inversion. Il s'agit, à partir des mesures, d'obtenir des données quantitatives relatives au défaut, par exemple sa position, ou sa forme, ou ses dimensions.
L'inversion peut être réalisée en prenant en compte des modèles analytiques directs, par exemple des modèles polynomiaux, permettant d'établir une relation entre des caractéristiques d'un défaut et des mesures résultant d'un capteur. L'inversion du modèle permet une estimation desdites caractéristiques à partir de mesures réalisées.
Selon une autre approche, les caractéristiques des défauts peuvent être estimées en mettant en œuvre des algorithmes d'intelligence artificielle supervisée, par exemple des réseaux de neurones. Cependant, une difficulté liée à l'utilisation de réseaux de neurones est le recours à une phase d'apprentissage aussi complète que possible, de façon à optimiser les performances de l'estimation. Cela prend du temps et nécessite un nombre important de données. Les inventeurs proposent un procédé adressant cette question. L'objectif est de faciliter l'apprentissage d'un réseau de neurones destiné à effectuer une inversion, tout en conservant une bonne performance dans l'estimation des caractéristiques du défaut.
EXPOSE DE L'INVENTION
Un premier objet de l'invention est un procédé de caractérisation d'une pièce, la pièce étant susceptible de comporter un défaut, le procédé comportant les étapes suivantes : a) réalisation de mesures non destructives à l'aide d'un capteur, le capteur étant disposé sur la pièce ou face à la pièce ; b) formation d'au moins une matrice de mesures à l'aide des mesures effectuées lors de l'étape a); c) utilisation de la matrice en tant que donnée d'entrée d'un réseau de neurones convolutif, le réseau de neurones convolutif comportant :
- un bloc d'extraction, configuré pour extraire des caractéristiques de chaque donnée d'entrée ;
- un bloc de classification, configuré pour effectuer une classification des caractéristiques extraites par le bloc d'extraction, le bloc de classification débouchant sur une couche de sortie comportant au moins un nœud ; d) en fonction de la valeur de chaque nœud de la couche de sortie, détection de la présence d'un défaut dans la pièce, et caractérisation éventuelle du défaut détecté ; le procédé comportant, préalablement aux étapes c) et d) :
- constitution d'une première base de données, la première base de données comportant des mesures effectuées ou simulées, sur une première pièce modèle, selon une première configuration, la première configuration étant paramétrée par des paramètres, la première base de donnée étant formée en considérant au moins un paramètre variable et au moins un paramètre fixe ;
- prise en compte d'un premier réseau de neurones, comportant un bloc d'extraction et un bloc de traitement, le bloc de traitement étant configuré pour traiter des caractéristiques
extraites par le bloc d'extraction, le premier réseau de neurones ayant fait d'objet d'un premier apprentissage, en utilisant la première base de données; le procédé étant caractérisé en ce qu'il comporte également :
- une constitution d'une deuxième base de données, comportant des mesures effectuées ou simulées sur une deuxième pièce modèle, représentative de la pièce caractérisée, selon une deuxième configuration, la deuxième configuration étant paramétrée en modifiant au moins un paramètre fixe de la première configuration ;
- un deuxième apprentissage, en utilisant la deuxième base de données, de façon à paramétrer un deuxième réseau de neurones convolutif, le deuxième réseau de neurones convolutif comportant le bloc d'extraction du premier réseau de neurones, et un bloc de classification, ce dernier étant paramétré lors du deuxième apprentissage ;
- de telle sorte que lors de l'étape c), le réseau de neurones utilisé est le deuxième réseau de neurones convolutif, résultant du deuxième apprentissage.
Par mesure, il est entendu une mesure d'une grandeur physique susceptible de varier en présence d'un défaut dans la pièce. Il peut s'agir d'une grandeur acoustique, électrique, électrostatique, magnétique, électromagnétique (par exemple une intensité d'un rayonnement), ou mécanique.
La deuxième configuration peut notamment prendre en compte :
- une deuxième pièce modèle différente de la première pièce modèle ;
- et/ou des mesures expérimentales tandis que la première configuration prend en compte des mesures simulées, ou réciproquement ;
- et/ou une forme du défaut différente de la forme du défaut considérée sur la première pièce modèle ;
- et/ou des conditions de mesure différentes par rapport aux conditions de mesure prises en compte dans la première configuration (par exemple type de capteur, température, humidité, bruit de mesure) ;
- et/ou un type de défaut différent du type de défaut pris en compte lors de la première configuration.
La première base de données peut comporter des mesures effectuées ou simulées sur une pièce modèle comportant le défaut.
Selon un mode de réalisation, le bloc de traitement du premier réseau de neurones est un bloc de classification, configuré, lors du premier apprentissage, pour effectuer une classification des caractéristiques extraites par le bloc d'extraction, le premier réseau de neurones étant un
réseau de neurones convolutif. Lors du deuxième apprentissage, le bloc de classification du deuxième réseau de neurones peut être initialisé en utilisant le bloc de classification du premier réseau de neurones.
Selon un mode de réalisation, le premier réseau de neurones est de type auto-encodeur. Ledit bloc de traitement du premier réseau de neurones peut être configuré, lors du premier apprentissage, pour reconstruire des données, issues de la première base de données, et formant des données d'entrée du premier réseau de neurones.
Le défaut peut être de type : délaminage, et/ou fissure, et/ou perforation et/ou fissure se propageant à partir d'une perforation et/ou présence d'une zone poreuse et/ou une présence d'une inclusion et/ou présence de corrosion.
La pièce peut être constituée d'un matériau composite, composant des composants assemblés les uns aux autres. Le défaut peut alors être un défaut d'assemblage entre les composants.
Les mesures peuvent être représentatives d'une distribution spatiale :
- de propriétés électriques ou magnétiques ou mécaniques de la pièce ;
- et/ou de dimensions de la pièce ;
- et/ou de propriétés de propagation d'une onde acoustique ou mécanique ou électromagnétique à travers ou le long de la pièce ;
- et/ou de propriétés de réflexion d'une onde acoustique ou mécanique ou d'une onde électromagnétique, notamment visible ou infra-rouge, par la pièce ;
- et/ou de propriétés de transmission d'une onde électromagnétique X ou gamma par la pièce ;
- et/ou d'une température de la pièce.
Le défaut peut être une variation de la distribution spatiale par rapport à une distribution spatiale de référence. La distribution spatiale de référence peut avoir été préalablement modélisée ou établie expérimentalement.
Les mesures peuvent être de type :
- mesure de courants de Foucault formés dans la pièce sous l'effet d'une excitation de la pièce par un champ magnétique ;
- et/ou mesure d'une propagation d'ondes acoustiques ou mécanique se propageant à travers ou le long de la pièce ;
- et/ou mesure de la réflexion d'une lumière infra-rouge ou visible lorsque la pièce est illuminée par une lumière infra-rouge ou visible;
- et/ou mesure de la transmission d'un rayonnement X ou gamma à travers la pièce lorsque ladite pièce est irradiée par une source de rayonnement X ou gamma.
Le procédé peut être tel que :
- la première base de données constituée à partir de mesures simulées ;
- et la deuxième base de données est formée à partir de mesures effectuées expérimentalement; ou
- la première base de données est constituée à partir de mesures effectuées expérimentalement ;
- et la deuxième base de donnée est formée à partir de mesures simulées ; ou
- la première base de données et la deuxième base de données sont constituées à partir de mesures simulées ; ou
- la première base de données et la deuxième base de données sont constituées à partir de mesures expérimentales.
La première configuration et la deuxième configuration peuvent être paramétrées par au moins un des paramètres choisis parmi :
- type de mesure : expérimentale ou simulée ;
- forme de la pièce modèle ;
- matériau formant la pièce modèle ;
- conditions de mesure ;
- type de défaut considéré ;
- localisation du défaut dans la pièce modèle ;
- forme du défaut dans la pièce modèle ;
- au moins une dimension du défaut de la pièce modèle.
Les conditions de mesure peuvent comprendre au moins :
- positionnement du capteur par rapport à la pièce modèle et/ou nombre de capteurs ;
- température et/ou humidité et/ou conditions environnementales à laquelle est mis en œuvre le capteur ;
- état de surface de la pièce inspectée ;
- niveau de bruit de mesure ;
- type de capteur utilisé ;
- incertitudes associées aux mesures.
La première pièce modèle et la deuxième pièce modèle peuvent être identiques.
Selon une possibilité :
- la deuxième pièce modèle a une forme différente de la première pièce modèle ;
- et/ou la deuxième pièce modèle est formée d'un matériau différent de la première pièce modèle.
La deuxième base de données peut comporter un nombre de données inférieur au nombre de données de la première base de données.
La caractérisation du défaut peut comporter :
- une identification du type de défaut, parmi des types prédéterminés ;
- et/ou une estimation d'au moins une dimension du défaut ;
- et/ou une localisation du défaut dans la pièce.
- et/ou une détermination d'un nombre de défauts dans la pièce.
L'invention sera mieux comprise à la lecture de l'exposé des exemples de réalisation présentés, dans la suite de la description, en lien avec les figures listées ci-dessous.
FIGURES
Les figures IA et IB schématisent la mise en œuvre de mesures par courants de Foucault sur une pièce conductrice.
La figure 2A représente la structure d'un réseau de neurones convolutif.
La figure 2B montre les principales étapes d'un procédé selon l'invention.
La figure 3A montre un défaut considéré lors d'un premier exemple.
La figure 3B est un exemple d'image résultant de mesures simulées sur le défaut représenté sur la figure 3A.
La figure 3C présente des performances de classification d'un réseau de neurones, en considérant respectivement des mesures dont le rapport signal à bruit est respectivement de 5 dB (gauche), 20 dB (centre), et 40 dB (droite).
La figure 3D présente des performances de classification d'un réseau de neurones selon l'invention, en considérant respectivement des mesures dont le rapport signal à bruit est respectivement de 5 dB (gauche), 20 dB (centre), et 40 dB (droite).
Les figures 4A et 4B montrent un défaut considéré lors d'un deuxième exemple.
La figure 4C présente des performances de classification comparées :
- d'un réseau de neurones de référence (courbe a) ;
- d'un réseau de neurones auxiliaire (courbe b) ;
- d'un réseau de neurones selon l'invention (courbe c).
La figure 5 schématise une variante de l'invention.
EXPOSE DE MODES DE REALISATION PARTICULIERS
Les figures IA et IB schématisent un exemple d'application de l'invention. Un capteur 1 est disposé face à une pièce à contrôler 10, de façon à caractériser la pièce. Il peut notamment s'agir d'une caractérisation thermique ou mécanique. Par caractérisation thermique ou mécanique, on entend une caractérisation de propriétés thermiques ou mécaniques de la pièce : température, déformation, structure.
La pièce à caractériser peut être une pièce monolithique, ou une pièce plus complexe résultant d'un assemblage de plusieurs pièces élémentaires, par exemple une voilure d'une aile d'avion ou une peau d'un fuselage.
La caractérisation peut consister à détecter une présence éventuelle d'un défaut structurel 11. Dans cet exemple, le capteur 1 est configuré pour effectuer des mesures de courants de Foucault générés dans la pièce à contrôler 10. Cette dernière est un pièce conductrice d'électricité. Le principe des mesures non destructives par courants de Foucault est connu. Sous l'effet d'une excitation par un champ magnétique 12, des courants de Foucault 13 sont induits dans la pièce
10. Dans l'exemple représenté, le capteur 1 est une bobine, alimentée par un courant modulé en amplitude. Elle génère un champ magnétique 12, dont des lignes de champ sont représentées sur la figure IA. Des courants de Foucault 13 sont induits, formant des boucles de courant sur la pièce 10. Les courants de Foucault 13 engendrent un champ magnétique de réaction 14, ce dernier agissant sur l'impédance de la bobine 1. Ainsi, la mesure de l'impédance de la bobine 1 est représentative des courants de Foucault 13 formés dans la pièce 10. En présence d'un défaut
11, comme schématisé sur la figure IB, les courants de Foucault 13 sont modifiés, ce qui se traduit par une variation d'impédance de la bobine. Ainsi, la mesure de l'impédance de la bobine constitue une signature du défaut.
Dans cet exemple le capteur 1 joue le rôle d'excitation de la pièce 10, ainsi que de capteur de la réaction de la pièce en réponse à l'excitation. Généralement, le capteur est déplacé le long de la pièce, parallèlement à cette dernière. Dans l'exemple représenté, la pièce s'étend selon un axe X et un axe Y. Le capteur peut être déplacé parallèlement à chaque axe, ce qui est matérialisé par les doubles flèches. De façon alternative, on peut mettre en œuvre une matrice de capteurs.
On dispose ainsi d'une série de mesures, formant une distribution spatiale, de préférence bidimensionnelle, d'une grandeur mesurée, en l'occurrence l'impédance du capteur 1. Il est
usuel de distinguer les parties réelle et imaginaire de l'impédance. L'impédance mesurée est généralement comparée à une impédance en l'absence de défaut, de façon à obtenir une cartographie de la variation d'impédance AH. On peut former une matrice de mesures M, représentant la partie réelle ou la partie imaginaire de l'impédance mesurée en chaque point de mesure.
Le capteur 1 est relié à une unité de traitement 2, comportant une mémoire 3 comprenant des instructions pour permettre la mise en œuvre d'un algorithme de traitement de mesures, dont les principales étapes sont décrites par la suite. L'unité de traitement est usuellement un ordinateur, relié à un écran 4.
Comme décrit en lien avec l'art antérieur, la matrice de mesures M correspond à une répartition spatiale de la réponse de la pièce à l'excitation, chaque mesure étant une signature de la pièce. Une inversion doit être effectuée, de façon à pouvoir conclure à la présence d'un défaut, et, le cas échéant, une caractérisation de ce dernier. L'inversion est effectuée par l'algorithme de traitement mis en œuvre par l'unité de traitement 2.
Par défaut structurel, il est entendu un défaut mécanique affectant la pièce. Il peut notamment s'agir d'une fissure, ou d'un délaminage, ou d'une perforation, formant par exemple un trou traversant, ou d'une fissure se propageant à partir d'un trou, ou d'une zone anormalement poreuse. Le défaut structurel peut également être une présence d'une inclusion d'un matériau indésirable, ou d'une zone corrodée. Le défaut structurel peut affecter la surface de la pièce 10 située face au capteur. Il peut également être localisé en profondeur dans la pièce. Le type de capteur utilisé est sélectionné en fonction du défaut à caractériser.
La pièce à contrôler 10 peut être formée d'un matériau composite. Elle comporte alors des composants assemblés les uns aux autres. Il peut s'agir d'un assemblage de plaques ou de fibres. Le défaut peut être un défaut d'assemblage : il peut s'agir d'un délaminage local de plaques, ou une décohésion de fibres ou de torons de fibres, ou une non uniformité de l'orientation de fibres, ou défaut résultat d'un impact ou choc.
La pièce à contrôler 10 présente des propriétés mécaniques spatialement distribuées le long de la pièce. Le défaut peut être une variation de la distribution spatiale des propriétés mécaniques par rapport à une distribution spatiale de référence. Il peut par exemple s'agir d'une partie de la pièce, dans laquelle les propriétés mécaniques ne correspondent pas à des propriétés mécaniques de référence, ou sont en dehors d'une plage de tolérance. La propriété mécanique peut être le module d'Young, ou la densité, ou une vitesse de propagation d'une onde
acoustique. La distribution spatiale de référence peut être issue d'une spécification, et correspondre à un objectif à atteindre. Elle peut résulter d'un modèle ou de mesures expérimentales.
Le paragraphe précédent s'applique également à des propriétés électriques ou magnétiques, ou encore à une contrainte à laquelle est exposée la pièce à contrôler. Il peut par exemple s'agir d'une contrainte de température ou d'une contrainte mécanique, par exemple une contrainte de pression, à laquelle est soumise la pièce au cours de son exploitation. Aussi, la caractérisation de la pièce peut consister à établir une température de la pièce, ou un niveau de contrainte mécanique (effort, pression, déformation) auquel est soumis la pièce. La caractérisation peut également consister à établir une distribution spatiale d'une température de la pièce ou, de façon plus générale, d'une contrainte à laquelle est soumise la pièce. Le défaut est alors un écart entre la distribution spatiale et une distribution spatiale de référence. Lorsque l'on considère une distribution spatiale de le température de la pièce, un défaut peut être l'apparition d'un point chaud, au niveau duquel la température de la pièce est anormalement élevée par rapport à une distribution spatiale de référence de la température.
La caractérisation du défaut vise à déterminer le type de défaut, parmi les types précédemment cités. Elle peut également comporter une localisation du défaut, ainsi qu'une estimation de tout ou partie de ses dimensions.
Le traitement des mesures peut être réalisé en mettant en œuvre un algorithme d'intelligence artificielle supervisé, par exemple basé sur un réseau de neurones. L'apprentissage de l'algorithme peut être effectué en constituant une base de données formées à partir de mesures réalisées ou simulées sur une pièce comportant un défaut dont les caractéristiques sont connues : type de défaut, dimensions, localisation, éventuellement porosité ou autre grandeur physique permettant de caractériser le défaut.
La base de données peut être établie par simulation, en utilisant un logiciel de simulation dédié. Un exemple de logiciel dédié est le logiciel CIVA (fournisseur : Extende), permettant notamment de simuler différentes modalités de contrôle non destructif : propagation d'ultrasons, effets de courants de Foucault et radiographie X. Un tel logiciel permet de simuler des mesures à partir d'une modélisation de la pièce. Le recours d'un tel logiciel peut permettre de constituer une base de données permettant l'apprentissage de l'algorithme d'intelligence artificielle utilisé.
Pour ce type d'application, les inventeurs ont estimé que le recours à un réseau de neurones convolutif est approprié. En effet, les données d'entrée sont matricielles et peuvent être
assimilées à des images. Chaque image correspond à une cartographie d'une grandeur physique mesurée, et susceptible de varier en présence d'un défaut dans la pièce. La figure 2A schématise l'architecture d'un tel réseau.
Le réseau de neurones convolutif comporte un bloc d'extraction de caractéristiques Ai, relié à un bloc de traitement Bi. Le bloc de traitement est configuré pour traiter les caractéristiques extraites du bloc d'extraction Ai. Dans cet exemple, le bloc de traitement Bi est un bloc de classification. Il permet une classification sur la base des caractéristiques extraites par le bloc d'extraction Ai. Le réseau de neurones convolutif est alimentée par des données d'entrée Ain, qui correspondent à une ou plusieurs images. Dans l'exemple considéré, les données d'entrée forment une image, obtenue par une concaténation de deux images représentant respectivement la partie réelle et la partie imaginaire de la variation d'impédance AH mesurée en différents points de mesure, régulièrement répartis, face à la pièce, selon un arrangement matriciel.
Le bloc d'extraction de caractéristiques Ai comporte J couches Ci...Cj...Cj en aval des données d'entrée. J étant un entier supérieur ou égal à 1. Chaque couche Cj est obtenue par application d'un filtre de convolution aux images d'une couche précédente Cj-i. L'indice j est le rang de chaque couche. La couche Co correspond aux données d'entrée Ain. Les paramètres des filtres de convolution appliqués à chaque couche sont déterminés lors de l'apprentissage. La dernière couche Cj peut comporter un nombre de termes dépassant plusieurs dizaines, voire plusieurs centaines, voire plusieurs milliers. Ces termes correspondent à des caractéristiques extraites de chaque image formant les données d'entrée.
Entre deux couches successives, le procédé peut comporter des opérations de réduction de dimension, par exemple des opérations usuellement désignées par le terme « pooling » (regroupement). Il s'agit de remplacer les valeurs d'un groupe de pixels par une seule valeur, par exemple la moyenne, ou la valeur maximale, ou la valeur minimale du groupe considéré. On peut par exemple appliquer un "max pooling" (regroupement maximal), ce qui correspond au remplacement des valeurs de chaque groupe de pixels par la valeur maximale des pixels dans le groupe. La dernière couche Cj fait l'objet d'une opération usuellement désignée par le terme « Flatten » (aplatissement), de façon que les valeurs de cette couche forment un vecteur. Ces valeurs constituent les caractéristiques extraites de chaque image.
Le bloc de classification Bi est un réseau de neurones interconnecté, usuellement désigné par le terme « fully connected » ou perceptron multicouches. Il comporte une couche d'entrée Bin, et
une couche de sortie Bout. La couche d'entrée Bin est formée par les caractéristiques du vecteur résultant du bloc d'extraction Ai. Entre la couche d'entrée Bin et la couche de sortie Bout, on peut prévoir une ou plusieurs couches cachées H. On dispose ainsi successivement de la couche d'entrée Bin, de chaque couche cachée H et de la couche de sortie Bout.
A chaque couche peut être attribué un rang k. Le rang k = 0 correspond à la couche d'entrée Bin. Chaque couche comporte des nœuds, le nombre de nœuds d'une couche pouvant être différent du nombre de nœuds d'une autre couche. D'une façon générale, la valeur d'un nœud yn k d'une couche de rang k est telle que
OÙ est la valeur d'un nœud de la couche précédente k — 1, m représentant un ordre du nœud de la couche précédente, m étant un entier compris entre 1 et Mu, Mu correspondant à la dimension de la couche précédente, de rang k — 1 ; bm est un biais associé à chaque nœud ym k-i de la couche précédente ; fn est une fonction d'activation associé au nœud d'ordre n de la couche considérée, n étant un entier compris entre 1 et Mk, Mk correspondant à la dimension de la couche de rang k wm n est un terme de pondération pour le noeud d'ordre m de la couche précédente (rang k-1) et le nœud d'ordre n de couche considérée (rang k).
La forme de chaque fonction d'activation fn est déterminée par l'homme du métier. Il peut par exemple s'agir d'une fonction d'activation fn de type tangente hyperbolique ou sigmoïde.
La couche de sortie Bout comporte des valeurs permettant de caractériser un défaut identifié par les images de la couche d'entrée Ain. Elle constitue le résultat de l'inversion effectuée par l'algorithme.
Dans l'application la plus simple, la couche de sortie peut ne comporter qu'un seul nœud, prenant la valeur 0 ou 1 selon que l'analyse révèle la présence d'un défaut ou non.
Dans une application d'identification, la couche de sortie peut comporter autant de nœuds que de types de défaut considérés, chaque nœud correspondant à une probabilité de présence d'un type de défaut parmi des types prédéterminés (fissure, trou, délaminage...).
Dans une application de dimensionnement, la couche de sortie peut comporter autant de nœuds que de dimensions d'un défaut, ce qui suppose une prise en compte d'un modèle géométrique de défaut.
Dans une application de localisation, la couche de sortie peut comporter des coordonnées indiquant la position, bidimensionnelle ou tridimensionnelle, d'un défaut dans la pièce.
Dans une application de caractérisation, la couche de sortie peut contenir des informations sur la pièce inspectée, par exemple une distribution spatiale de propriétés mécaniques (par exemple le module d'Young), ou électriques ou magnétiques ou thermiques (par exemple la température) ou géométriques (par exemple au moins une dimension de la pièce). La dimension de la couche de sortie correspond à un nombre de points de la pièce en lesquels la propriété mécanique est estimée sur la base des données d'entrée.
Les applications peuvent être combinées, de façon à obtenir à la fois une localisation et un dimensionnement, ou une localisation, une identification et un dimensionnement.
Un élément important de l'invention est que le bloc d'extraction Ai peut être établi, pour une modalité de mesure, en utilisant un apprentissage aussi exhaustif que possible, dit premier apprentissage, en prenant en compte une base de données importante. Le bloc de classification peut être adapté à différents cas spécifiques, dans lesquelles la modalité de mesure est mise en œuvre. Autrement dit, l'invention rend possible le paramétrage de différents blocs de classification Bi, B2, pour différentes applications, tout en conservant un même bloc d'extraction Ai.
D'une façon générale, au cours d'une première phase d'apprentissage, le bloc d'extraction Ai et un premier bloc de classification Bi sont paramétrés. La première phase d'apprentissage est mise en œuvre en utilisant une première base de données DBi, établie selon une première configuration, en considérant une première pièce modèle. Le procédé comporte une utilisation d'une deuxième base de données DB2, sur la base de laquelle un deuxième apprentissage est effectué. La deuxième base de donnée est établie selon une deuxième configuration, différente de la première configuration.
La première configuration est paramétrée par différents paramètres Pi, i étant un entier identifiant chaque paramètre. Ces paramètres peuvent notamment comprendre :
Pi : constitution de la base de données : données expérimentales ou données simulées, ou données simulées avec différents niveaux de précision ou de fidélité ;
P2 : forme de la pièce modèle considérée ;
P3 : matériau de la pièce modèle considérée ;
P4 : conditions de mesures, par exemple durée d'acquisition, positionnement du capteur par rapport à la pièce, références du capteur utilisé ou modélisé, paramètres environnementaux (température, humidité, éventuellement pression), bruit de mesure, type de traitement effectué sur les mesures pour estimer une propriété de la pièce, qu'il s'agisse d'une propriété électrique, magnétique ou mécanique;
Ps : type de défaut considéré ;
Ps : localisation du défaut dans la pièce modèle ;
P7 : forme du défaut considéré ;
P8 : dimensions du défaut considéré.
Par fidélité, évoquée en lien avec le premier paramètre Pi, on entend une capacité du modèle à représenter la réalité.
La première base de données DBi comporte différentes images, représentatives de mesures effectuées ou simulées sur la première pièce modèle, en faisant varier certains paramètres Pj, dits paramètres variables, tandis que d'autres paramètres P^j sont fixes pour l'ensemble des images de la première base de données. Par exemple, la première base de donnée DBi est constituée en ne faisant varier que le paramètre P8, représentant les dimensions du défaut considéré, tandis que les paramètres Pi à P7 sont constants.
Il est entendu que lors de chaque apprentissage, les caractéristiques du défaut que l'on cherche à estimer sont connues. Généralement, les paramètres variables correspondent aux caractéristiques destinées à être estimées par le réseau de neurones.
La première base de données DBi peut comporter un premier nombre d'image Ni pouvant dépasser plusieurs centaines, voire plusieurs milliers. Ainsi, suite au premier apprentissage, le premier réseau de neurones, formé par la combinaison des blocs Ai et Bi est alors supposé présenter une performance de prédiction satisfaisante.
Un élément important de l'invention est de pouvoir utiliser le premier apprentissage pour effectuer le deuxième apprentissage, selon une configuration différente. Par configuration différente, il est entendu qu'on modifie au moins un des paramètres fixes de la première configuration. Les exemples suivants montrent différentes possibilités de modifications d'un paramètre :
Modification du premier paramètre Pi : le deuxième apprentissage est réalisé en considérant des mesures expérimentales, in-situ, alors que le premier apprentissage est réalisé en considérant des mesures simulées ou effectuées dans des conditions de laboratoire (ou toute autre combinaison de mesures expérimentales et de simulation). Selon une possibilité, le niveau de précision de la première base de données DBi et de la deuxième base de données DB2 sont différents. Par exemple, le premier apprentissage et le deuxième apprentissage sont réalisées en se basant sur des mesures simulées avec un niveau de précision respectivement faible et élevé : la première base de données peut être obtenue par un premier modèle analytique, rapide mais peu précis, tandis que la deuxième base de données peut résulter d'un modèle semi-analytique, numérique ou stochastique, plus lent à mettre en œuvre mais plus précis. De façon similaire, la première base de donnée peut être obtenue avec un capteur générant des mesures moins précises que le capteur utilisé pour constituer la deuxième base de données.
Lorsque la première et la deuxième base de données sont obtenues expérimentalement, ou par simulation, le nombre de capteurs utilisés (ou simulés) peut être différent lors de la constitution de chaque base de données.
Modification du deuxième paramètre P2: le deuxième apprentissage est réalisé en considérant une deuxième pièce modèle, dont la forme est différente de la première pièce modèle : la deuxième pièce modèle peut être bombée ou incurvée alors que la première pièce modèle est plane. Le premier apprentissage peut par exemple être effectué sur une pièce modèle dont la géométrie est simple, aisément modélisable, ou facile à fabriquer. Le deuxième apprentissage peut alors être effectué en considérant une pièce dont la géométrie est plus complexe, et correspondant davantage à la réalité. Modification du troisième paramètre P3: le deuxième apprentissage est réalisé en considérant une deuxième pièce modèle dont le matériau a une composition différente de la première pièce modèle : il peut par exemple s'agir d'un alliage différent, ou d'un alliage réaliste, présentant une certaine variabilité par rapport à un alliage théorique considéré lors du premier apprentissage. Le même raisonnement s'applique à un matériau composite.
Modification du quatrième paramètre P4: les conditions de mesures prises en compte dans le deuxième apprentissage sont différentes que lors du premier apprentissage. Par exemple, la position du capteur par rapport à la pièce modèle est différente, ou la température ou l'humidité à laquelle est exposé le capteur est différente. Le type de
capteur peut également être différent. Le deuxième apprentissage peut être effectué en prenant en compte une réponse réaliste du capteur, incluant par exemple une prise en compte du bruit de mesure. La première base de données peut être obtenues en utilisant un capteur (ou une simulation) affecté d'un niveau de bruit et/ou d'incertitude différent du capteur permettant d'obtenir la deuxième base de données.
Modification du cinquième paramètre P5: le deuxième apprentissage est réalisé en considérant un nombre et/ou un type de défaut différent de celui considéré dans le premier apprentissage
Modification des sixième, septième et huitième paramètres Pg, P7, Ps : la position, la forme, ou les dimensions du défaut sont respectivement modifiées au cours du deuxième apprentissage.
D'une façon générale, le premier apprentissage est réalisé en fixant certains paramètres. Au moins l'un de ces paramètres est modifié lors du deuxième apprentissage, pour constituer la deuxième base de données DB2.
Un aspect important de l'invention est que lors du deuxième apprentissage, le bloc d'extraction Ai, issu du premier apprentissage, est conservé. On considère que le premier apprentissage est suffisamment exhaustif pour que la performance du bloc d'extraction, en terme d'extraction de caractéristiques des images fournies en entrée, soit considérée comme suffisante. Le bloc d'extraction peut alors être utilisé lors du deuxième apprentissage. Autrement dit, les caractéristiques extraites par le bloc Ai constituent un bon descripteur des mesures formant la couche d'entrée.
Le deuxième apprentissage se limite ainsi à une mise à jour du paramétrage du bloc de classification, de façon à obtenir un deuxième bloc de classification B2 adapté à la configuration du deuxième apprentissage. Le deuxième apprentissage peut alors être mis en œuvre avec une deuxième base de données DB2 comportant moins de données que la première base de données.
Au cours du deuxième apprentissage, le deuxième bloc de classification B2 peut être initialisé en prenant en compte les paramètres régissant le premier bloc de classification Bi. Selon une possibilité, le deuxième bloc de classification B2 peut comporter un même nombre de couches cachées que le premier bloc de classification Bi. Ces dernières peuvent posséder le même nombre de nœuds que les couches du premier bloc de classification. La dimension de la couche de sortie dépend des caractéristiques du défaut à estimer. Aussi, la dimension de la couche de
sortie du deuxième bloc de classification B2 peut être différente de celle du premier bloc de classification Bi. Selon une possibilité, le nombre de couches cachées et/ou la dimension des couches cachées du deuxième bloc de classification est différent du nombre de couches cachées et/ou de la dimension des couches cachées du premier bloc de classification.
L'avantage de l'invention est que moyennant un premier apprentissage suffisamment complet, le deuxième apprentissage peut être établi en considérant un nombre de données significativement inférieur au nombre de données utilisées pour réaliser le premier apprentissage. Par nombre de données significativement inférieur, on entend au moins 10 fois voire 100 fois moins de données. La deuxième base de données DB2, constituée pour établir le deuxième apprentissage, est plus petite que la première base de données DBi. On parle d'apprentissage frugal, dans la mesure ou le nombre de données requises est modeste.
La méthode permet une mise en œuvre d'un premier apprentissage dans des conditions de laboratoire, sur la base de simulations ou de conditions expérimentales optimisées. Ce premier apprentissage est suivi d'un deuxième apprentissage plus proche de la réalité du terrain : prise en compte de mesures expérimentales, et/ou de conditions de mesure plus réalistes, ou d'une forme ou une constitution de la pièce plus complexe. L'invention permet une limitation du nombre de mesures nécessaires au deuxième apprentissage, tout en permettant l'obtention d'un réseau de neurones présentant de bonnes performances de prédiction. Cela constitue un avantage important, puisque l'acquisition de mesures dans des conditions réalistes est habituellement plus complexe que l'obtention de mesures en laboratoire ou de mesures simulées. Le deuxième apprentissage peut permettre la prise en compte de spécificités non modélisables, par exemple le bruit de mesure, ou des variations relativement à la composition ou à la forme de la pièce.
Un autre intérêt de l'invention est de pouvoir utiliser un premier apprentissage, réalisé sur une pièce selon un certain matériau, pour effectuer un deuxième apprentissage « frugal », sur une pièce similaire, d'un matériau différent.
Le premier apprentissage peut être perçu comme un apprentissage général, pouvant convenir à différentes applications particulières, ou à différents types ou formes de pièces, ou à différents types de défauts. Il est essentiellement destiné à disposer d'un bloc d'extraction Ai permettant d'extraire des caractéristiques pertinentes des données d'entrée. Le deuxième apprentissage est un apprentissage plus ciblé, sur une application particulière, ou sur un type de pièce particulière, ou à un type de défaut particulier. L'invention facilite l'obtention du deuxième
apprentissage, car elle nécessite nettement moins de données d'entrée que le premier apprentissage. Ainsi, un même premier apprentissage peut être utilisé pour effectuer différents deuxièmes apprentissages, correspondant respectivement à des configurations différentes.
Le premier apprentissage peut être réalisé sur une première base de données relativement facile à obtenir, par rapport à la deuxième base de données. Cela permet de prévoir une première base de donnée plus exhaustive, prenant par exemple en compte une grande variabilité dans les dimensions et/ou dans la forme du défaut.
Les principales étapes de l'invention sont schématisées sur la figure 2B.
Etape 100 : constitution de la première base de données DBi.
Au cours de cette étape, on constitue la première base de données DBi selon une première configuration. Comme précédemment décrit, la première configuration est paramétrée par des premiers paramètres, certains de ces premiers paramètres étant fixes. La première base de données est formée d'images représentatives de mesures obtenues (effectuées ou simulées) selon la première configuration.
Etape 110 : premier apprentissage.
Au cours de cette étape, la première base de données est utilisée pour paramétrer les blocs Ai et Bi, de façon à optimiser la performance de prédiction d'un premier réseau de neurones convolutif CNNi.
Etape 120 : constitution de la deuxième base de données DB2.
Au cours de cette étape, on constitue la deuxième base de données DB2 selon une deuxième configuration. Comme précédemment décrit, au moins un paramètre, considéré comme fixe lors de la première configuration, est modifié. La taille de la deuxième base de données est de préférence au moins 10 fois inférieure à la taille de la première base de données.
Etape 130 : deuxième apprentissage.
Au cours de cette étape, on utilise la deuxième base de données DB2 pour effectuer un apprentissage d'un deuxième réseau de neurones convolutif CNN2 formé par le premier bloc d'extraction Ai, résultant du premier apprentissage, et d'un deuxième bloc de classification B2, propre à la configuration adoptée lors du deuxième apprentissage.
La configuration relative au deuxième apprentissage peut correspondre à des conditions considérées comme proche des conditions de mesures. En effet, le réseau de neurones
convolutif CNN2 résultant du deuxième apprentissage est destiné à être mis en œuvre pour interpréter des mesures effectuées sur des pièces examinées. C'est l'objet de l'étape suivante.
Etape 200 : réalisation de mesures
Des mesures sont réalisées, sur une pièce examinée, selon la configuration de mesure considérée lors du deuxième apprentissage.
Etape 210 : Interprétation des mesures
On utilise le réseau de neurones convolutif CNN2, résultant du deuxième apprentissage, pour estimer les caractéristiques d'un défaut éventuellement présent dans la pièce examinée, à partir des mesures effectuées lors de l'étape 200. Ces caractéristiques peuvent être établies à partir de la couche de sortie Bout du réseau de neurones convolutif CNN2. Ce réseau est donc utilisé pour effectuer l'étape d'inversion des mesures.
Exemple 1.
Un premier exemple de mise en œuvre de l'invention est présenté en lien avec les figures 3A à 3D. La figure 3A représente un défaut simple, de type fissure en T, présentant 7 caractéristiques de position ou de dimension : les caractéristiques XI, X2 et X4 sont des longueurs ou des largeurs de deux branches selon un plan PXY ; les caractéristiques X5 et X6 sont des profondeurs des deux branches perpendiculairement au plan PXY ; la caractéristique X3 est une caractéristique angulaire ; les caractéristiques X7 et X8 sont des caractéristiques de position du défaut dans le plan PXY-
On a simulé des mesures effectuées selon une modalité de courants de Foucault, en décrivant un balayage constitué par 41 x 46 points de mesure à une distance de 0,3 mm en dessus de la pièce. La pièce était une pièce métallique plane. Le tracé régulier représenté sur la figure 3A illustre le déplacement du capteur le long de la pièce, parallèlement au plan PXY- L'image formée sur la figure 3B est une image de la partie réelle de la variation d'impédance AH. La variation d'impédance correspond à une différence, en chaque point de mesure, entre des impédances respectivement simulées en présence et en absence de défaut dans la pièce. La figure 3B a été obtenue en considérant les caractéristiques suivantes : XI = 11.822 mm ; X2 = 0.086 mm; X3 = - 9.88° ; X4 = 11.835 mm ; X5 = 0.635 mm ; X6 = 1.127 mm ; X7 = 27.489 mm ; X8 = 24.099 mm.
Un premier apprentissage a été effectué sur la base de simulations. Au cours du premier apprentissage, on a utilisé 2000 images en prenant en compte un niveau de bruit très faible (rapport signal à bruit de 40 dB). Chaque image d'entrée est une concaténation d'une image de la partie réelle et d'une image de la partie imaginaire de la variation d'impédance AH mesurée en chaque point de mesure. Au cours de cet apprentissage, on a fait varier les dimensions du défaut, la forme restant la même.
Le premier apprentissage a permis de paramétrer un premier réseau de neurones convolutif CNNi, comportant un premier bloc d'extraction Ai et un premier bloc de classification Bi tels que précédemment décrits. La couche d'entrée comporte deux images, correspondant respectivement à la partie réelle et à la partie imaginaire de la variation d'impédance AH aux différents points de mesure. Le bloc d'extraction Ai comporte quatre couches de convolution Ci à C4 telles que :
Ci est obtenue en appliquant 32 noyaux de convolution de dimensions 5x5 aux deux images d'entrée.
C2 est obtenue en appliquant 32 noyaux de convolution de dimensions 3x3 à la couche Ci.
C3 est obtenue en appliquant 64 noyaux de convolution de dimensions 3x3 à la couche C2.
Une opération de Maxpooling (regroupement selon un critère maximum) par groupes de 2x2 pixels est effectuée entre les couches C2 et C3 ainsi qu'entre la couche C3 et la couche C4, cette dernière étant convertie en un vecteur de dimension 1024.
Le vecteur de dimension 1024 issu du bloc d'extraction Ai constitue la couche d'entrée Bin d'un bloc de classification Bi fully connected comportant une seule couche cachée H (512 nœuds), reliée à une couche de sortie Bout. Cette dernière est un vecteur de dimension 8, chaque terme correspondant respectivement à une estimation des dimensions XI à X8.
Le premier réseau de neurones convolutif CNNi a été testé pour estimer les 8 paramètres dimensionnels XI à X8 représentés sur la figure 3A. Lors du test, on a utilisé des images de tests simulées, et représentatives de mesures expérimentales présentant trois niveaux de rapport signal à bruit (SNR), respectivement 5dB (rapport signal à bruit faible), 20 dB (rapport signal à bruit moyen), et 40 dB (rapport signal à bruit élevé). Sur les images de test, on a fait varier les différentes caractéristiques XI à X8. Le rapport signal sur bruit a été simulé en ajoutant un bruit blanc gaussien aux matrices (ou images) formant la couche d'entrée du réseau de neurones.
La figure 3C montre les performances de prédiction de la dimension XI en utilisant des images de test dont le rapport signal sur bruit est respectivement égal à 5 dB (gauche), 20 dB (centre), 40 dB (à droite). Sur chacune des courbes, l'axe des abscisses correspond aux valeurs vraies et l'axe des ordonnées correspond aux valeurs estimées par le réseau de neurones CNNi. On observe que les performances de prédiction ne sont pas satisfaisantes lorsque le rapport signal sur bruit ne correspond pas à celui ayant été considéré lors de l'apprentissage. En revanche, la performance d'estimation est satisfaisante lorsque le rapport signal sur bruit correspond à celui considéré lors de l'apprentissage. Sur la figure 3C, on a indiqué des indicateurs relatifs à la performance de prédiction : MAE (Mean Absolute Error - Erreur absolue moyenne), MSE (Mean Squared Error - Erreur quadratique moyenne) et R2 (coefficient de détermination).
Les inventeurs ont formé un deuxième réseau de neurones CNN2, en utilisant, dans une deuxième base de données, 20 images simulées en prenant en compte un rapport signal sur bruit de 40 dB et 20 images simulées en prenant en compte un rapport signal sur bruit de 5 dB, soit un total de 40 images. Comme précédemment décrit, le deuxième réseau de neurones CNN2 a été paramétré en conservant le bloc d'extraction Ai du premier réseau de neurones CNNi. Seul le bloc de classification B2 du deuxième réseau de neurones a été paramétré, en conservant le même nombre de couches et le même nombre de nœuds par couche du premier réseau de neurones CNNi.
Le deuxième réseau de neurones CNN2 a été testé sur les mêmes données de test que le premier réseau de neurones, i-e avec des images de test présentant des rapports signal à bruit respectivement égaux à 5 dB, 20 dB et 40 dB. La figure 3D montre les performances d'estimation du deuxième réseau de neurones, relativement à l'estimation de la première dimension XI. La figure 3D est présentée de façon identique à la figure 3C : images de test dont le rapport signal sur bruit est de 5 dB (gauche), 20 dB (centre) et 40 dB (droite). Les performances d'estimation sont correctes quel que soit le rapport signal à bruit considéré.
Ce premier exemple démontre la pertinence de l'invention : elle permet une adaptation rapide d'un réseau de neurones lorsque l'on passe d'une première configuration à une deuxième configuration en modifiant un paramètre maintenu fixe durant la première configuration, en l'occurrence le rapport signal à bruit. On notera que le deuxième réseau de neurones a été paramétré à l'aide d'une base de données de 40 images, soit 50 fois moins que la base de données utilisée lors de l'apprentissage du premier réseau de neurones.
Exemple 2
Au cours d'un deuxième exemple, les inventeurs sont passés d'une première configuration d'apprentissage, prenant en compte un défaut d'une première forme prédéterminée, à une deuxième configuration d'apprentissage, basée sur un deuxième forme, différente de la première forme. Le deuxième défaut est représenté sur les figures 4A et 4B.
Le deuxième défaut complexe, est de type fissure formant trois T présentant 23 caractéristiques de position ou de dimension : les caractéristiques XI, X2, X3, X4, X5, X6 sont des longueurs de branches selon un plan PXY ; les caractéristiques X7, X8, X9 et X10 sont des angles dans le plan PXY ;
- les caractéristiques Xll, X12, X13, X14, X15, X16, X17, X18, X19 et X20 sont des caractéristiques de position; les caractéristiques X21, X22, X23, non représentées sur la figure 4B, sont les épaisseurs de chaque T perpendiculairement au plan PXY-
Les inventeurs ont paramétré un réseau de neurones de référence CNNref, en constituant une base de données de référence DBref. La base de données de référence DBref comportait 2000 images, chaque image étant obtenue par une concaténation d'images de la partie réelle et de la partie imaginaire de la variation d'impédance, obtenues par simulation de mesures, selon 89x69 points de mesure régulièrement répartis selon un maillage matriciel. On a représenté, sur la figure 4A, la trajectoire du capteur.
Le réseau de neurones de référence CNNref était un réseau de neurones convolutif, d'une structure analogue aux réseaux de neurones CNNi et CNN2 décrits en lien avec le premier exemple. Les seules différences sont : la dimension de la couche d'entrée, cette dernière comportant deux images de dimension 89x69, correspondant respectivement à la partie réelle et à la partie imaginaire de la variation d'impédance AH ; la dimension de la couche de sortie, comportant 23 nœuds, chaque nœud correspondant à une estimation d'une dimension XI à X23.
La courbe (a) de la figure 4C montre la performance d'estimation (coefficient de détermination) des 23 dimensions à l'aide du réseau de neurones de référence. Les coefficients de détermination relatifs à chaque dimension ont été calculés sur la base d'une application du réseau de neurones de référence à 400 défauts différents. La performance d'estimation est très bonne, ce qui n'est pas surprenant car le réseau de neurones de référence est un réseau spécifiquement conçu pour cette forme de défaut.
Les inventeurs ont comparé les performances du réseau de neurones de référence avec : d'une part un réseau de neurones auxiliaire issu d'une base de données réduite DBaux, établie de la même façon que la base de données de référence DBref, mais ne comportant que 50 images, correspondant à 50 jeux de dimensions différentes, d'autre part un réseau de neurones constitué selon l'invention.
On a formé la base de données réduite DBaUx en se basant sur 50 jeux de caractéristiques X1...X23 différents. Le réseau de neurones auxiliaire a été paramétré sur la base de cette base de données réduite. La structure du réseau de neurones auxiliaire était identique à celle du réseau de neurone de référence CNNref. Les performances de classification sont reportées sur la figure 4C (courbe b). Sans surprise, les performances de classification sont médiocres, ce qui est dû au « sous-apprentissage » du réseau de neurones auxiliaire. Les coefficients de détermination relatifs à chaque dimension ont été calculés sur la base d'une application du réseau de neurones auxiliaire et du réseau de neurones selon l'invention à 400 défauts différents.
Les inventeurs ont constitué un réseau de neurones selon l'invention. Pour cela, un premier réseau de neurones CNNi a été paramétré, en utilisant une première base de données DBi comportant 2000 images résultant de simulations telles que décrites en lien avec le premier exemple, sur un défaut « simple », tel que représenté sur la figure 3A. La dimension de chaque image était de 89x69. La couche d'entrée était formée de deux images, représentant respectivement les parties réelle et imaginaire de la variation d'impédance AH mesurée en 89x69 points de mesure. De même que dans l'exemple 1, les points de mesure sont régulièrement répartis selon un maillage matriciel. Pour constituer la première base de données, on a fait varier les dimensions XI à X8 du défaut simple.
Ils ont ensuite utilisé la base de données auxiliaire DBaux, spécifique au défaut complexe, en tant que deuxième base de données DB2, pour paramétrer un deuxième réseau de neurones CNN2, ce dernier utilisant le bloc d'extraction Ai du premier réseau de neurones CNNi. Le paramétrage du deuxième réseau de neurones s'est alors réduit à un paramétrage du bloc de classification B2 du deuxième réseau de neurones CNN2. Ce dernier correspond à un réseau de neurones selon l'invention. Le bloc de classification B2 du réseau de neurones convolutif CNN2 a été paramétré en modifiant des paramètres, considérés comme fixes durant la constitution du bloc d'extraction Ai du premier réseau de neurones convolutif CNNi. En l'occurrence, il s'agit de la forme du défaut. En effet, le bloc d'extraction Ai du premier réseau de neurones convolutif CNNi est paramétré en prenant en compte une forme simple de défaut (défaut en T représenté sur la
figure 3A), tandis que le bloc de classification B2 du deuxième réseau de neurones convolutif CNN2 est paramétré en prenant en compte une forme différente (défaut complexe comportant trois T représenté sur la figure 4B).
Le deuxième réseau de neurones CNN2 est un réseau de neurones selon l'invention. Les inventeurs ont mis en œuvre le deuxième réseau de neurones sur des images de test. Les performances d'estimation du réseau de neurones CNN2 sont représentées sur la figure 4C, courbe (c). On peut observer qu'un dépit d'un apprentissage réalisé avec la même base de données que le réseau auxiliaire, qui est une base de données frugale, les performances de classification sont supérieures à celles du réseau de neurones auxiliaires. Cela confirme l'intérêt de l'invention.
Variante 1
Dans les exemples qui précèdent, les données d'entrée des réseaux de neurones étaient formées de matrices résultant de simulations de mesures effectuées selon la modalité de courants de Foucault. L'invention peut s'appliquer à d'autres modalités usuellement pratiquées dans le domaine du contrôle non destructif, sous réserve que les données d'entrée soient présentées sous forme matricielle, assimilable à une image. Plus précisément, les autres modalités envisageables sont : les contrôles par ultrasons, selon lesquels une onde acoustique se propage à travers une pièce examinée. Cela concerne les mesures de type échographie, dans lesquelles les mesures sont généralement représentatives de la réflexion, par un défaut, d'une onde ultrasonore incidente. Cela concerne également la propagation d'ondes ultrasonores guidées. Dans ce type de modalité, les grandeurs physiques adressées sont les propriétés de propagation d'ondes ultrasonore dans la matière, la présence d'un défaut se traduisant par une variation des propriétés de propagation par rapport à une pièce en l'absence de défaut. On peut obtenir des images représentatives de la propagation d'une onde ultrasonore le long d'une pièce ou à travers cette dernière.
Les contrôles par rayons X ou gamma, selon lesquels la pièce examinée est soumise à une irradiation par un rayonnement électromagnétique ionisant. La présence d'un défaut se traduit par une modification des propriétés de transmission du rayonnement d'irradiation. Les mesures permettent d'obtenir des images représentatives de la transmission du rayonnement d'irradiation à travers la pièce examinée.
Les contrôles par thermographie, selon lesquels la pièce examinée est soumise à une illumination par un rayonnement électromagnétique dans la bande spectrale infra-
rouge. La présence d'un défaut se traduit par une modification des propriétés de réflexion du rayonnement d'illumination. Les mesures permettent d'obtenir des images représentatives de la réflexion du rayonnement d'illumination par la pièce examinée.
Les contrôles par mesures de paramètres de propagation d'une onde de flexion dans la pièce. Selon une telle modalité, on dispose des transducteurs sur la pièce, chaque transducteur étant configuré pour émettre ou détecter une onde de flexion se propageant à travers la plaque. Les paramètres de propagation de l'onde (en particulier vitesse de groupe et/ou l'amplitude) dépendent des propriétés élastiques de la pièce, et notamment de la densité et du module d'Young. Ces derniers dépendent de la température de la pièce. Ainsi, les paramètres de propagation de l'onde de flexion permettent d'estimer la température de la pièce. Lorsqu'on dispose de différents transducteurs piézoélectriques disposés ponctuellement autour d'une partie de la pièce, on peut définir plusieurs couples émetteurs/détecteurs. Il est alors possible d'estimer une distribution spatiale de la température dans la partie de pièce délimitée par les transducteurs, selon des algorithmes de reconstruction connus de l'homme du métier. Le défaut peut être une anomalie dans la distribution spatiale de la température par rapport à une distribution spatiale de référence.
Variante 2
Selon une autre variante, lors du premier apprentissage, on met en œuvre un premier bloc d'extraction Ai couplé à un bloc de reconstruction B'i. A l'instar du premier bloc de classification Bi précédemment décrit, le bloc de reconstruction B'i est un bloc de traitement des données extraites par le premier bloc d'extraction Ai. Cette variante met en œuvre un premier réseau de neurones CNN'i, de type auto-encodeur. Comme représenté sur la figure 5, le premier réseau de neurones comporte le bloc d'extraction Ai et le bloc de reconstruction B'i.
De façon connue de l'homme du métier, un réseau de neurones de type auto-encodeur est une structure comportant un bloc d'extraction Ai, dit encodeur, permettant d'extraire une information pertinente à partir d'une donnée d'entrée Ain, définie dans un espace de départ. La donnée d'entrée est ainsi projetée dans un espace, dit espace latent. Dans l'espace latent, l'information extraite par le bloc d'extraction est appelée code. L'auto-encodeur comporte un bloc de reconstruction B'i, permettant une reconstruction du code, de façon à obtenir une donnée de sortie Aout, définie dans un espace généralement identique à l'espace de départ. L'apprentissage est effectué de façon à minimiser une erreur entre la donnée d'entrée Ain et la
donnée de sortie Aout. Suite à l'apprentissage, le code, extrait par le bloc d'extraction, est considéré comme représentatif des caractéristiques principales de la donnée d'entrée. Autrement dit, le bloc d'extraction Ai permet une compression de l'information contenue dans la donnée d'entrée Ain.
Le premier réseau de neurones peut notamment être de type auto-encodeur convolutif : chaque couche du bloc d'extraction Ai résulte de l'application d'un noyau de convolution à une couche précédente. Sur la figure 5, on a représenté les couches de convolution Ci...Cj...Cj, la couche Cj étant la dernière couche du bloc d'extraction Ai, comportant le code. On a également représenté les couches Di...Dj...Dj du bloc de traitement B'i, la couche Dj correspondant à la donnée de sortie Aout.
Contrairement au bloc de classification Bi, précédemment décrit, le bloc de reconstruction B'i ne vise pas à déterminer les caractéristiques d'un défaut. Le bloc de reconstruction permet une reconstruction de la donnée sortie Aout, sur la base du code (couche Cj), la reconstruction étant aussi fidèle que possible à la donnée d'entrée Ain. Le bloc de classification Bi et le bloc de reconstruction B'i sont utilisés à une même finalité : permettre un paramétrage du premier bloc d'extraction Ai, ce dernier pouvant être utilisé durant le deuxième apprentissage, pour paramétrer le deuxième bloc de classification B2.
Selon cette variante, le procédé suit les étapes 100 à 210 précédemment décrites en lien avec la figure 2B. Le premier apprentissage (étape 110) consiste à paramétrer le bloc d'extraction Ai. Il peut être effectué sur la base d'au moins une première base de données. L'utilisation d'un auto-encodeur permet de combiner différentes premières bases de données. Certaines bases de données sont représentatives de pièces saines, sans défaut, tandis que d'autres bases de données sont représentatives de pièces comportant un défaut. Par exemple, on peut combiner : des bases de données rassemblant des mesures effectuées sur une pièce saine, à différentes températures, cela pour apprendre l'effet d'une variation de température sur les mesures ; des bases de données rassemblant des mesures effectuées sur une pièce comportant un défaut, à une température constante, cela pour apprendre l'effet de la présence d'un défaut sur les mesures.
Le fait d'effectuer un premier apprentissage en combinant différentes bases de données, représentatives de situations différentes, permet d'obtenir un bloc d'extraction de données concentrant l'information utile de chaque image.
A la suite de l'apprentissage, les étapes 120 à 210 sont effectuées comme précédemment décrit. Il s'agit d'effectuer un deuxième apprentissage, sur la base de la deuxième base de données, de façon à paramétrer un bloc de classification B2, en utilisant le bloc d'extraction Ai résultant du premier apprentissage.
Claims
1. Procédé de caractérisation d'une pièce (10), la pièce étant susceptible de comporter un défaut (11), le procédé comportant les étapes suivantes : a) réalisation de mesures non destructives à l'aide d'un capteur (1), le capteur étant disposé sur la pièce ou face à la pièce ; b) formation d'au moins une matrice de mesures (M) à l'aide des mesures effectuées lors de l'étape a); c) utilisation de la matrice en tant que donnée d'entrée d'un réseau de neurones convolutif (CNN2), le réseau de neurones convolutif comportant :
- un bloc d'extraction (Ai), configuré pour extraire des caractéristiques de chaque donnée d'entrée ;
- un bloc de classification (B2), configuré pour effectuer une classification des caractéristiques extraites par le bloc d'extraction, le bloc de classification débouchant sur une couche de sortie comportant au moins un nœud ; d) en fonction de la valeur de chaque nœud de la couche de sortie, détection de la présence d'un défaut dans la pièce, et caractérisation éventuelle du défaut détecté ; le procédé comportant, préalablement aux étapes c) et d) :
- constitution d'une première base de données (DB1), la première base de données comportant des mesures effectuées ou simulées, sur une première pièce modèle, selon une première configuration, la première configuration étant paramétrée par des paramètres (Pi), choisis parmi :
• type de mesure : expérimentale ou simulée;
• forme de la pièce modèle;
• matériau formant la pièce modèle;
• conditions de mesure;
• type de défaut considéré;
• localisation du défaut dans la pièce modèle;
• forme du défaut dans la pièce modèle;
• au moins une dimension du défaut de la pièce modèle ; la première base de données étant formée en considérant au moins un desdits paramètres variable et au moins un desdits paramètres fixe, la première base de données comportant des mesures effectuées ou simulées en présence du défaut dans la pièce modèle;
- prise en compte d'un premier réseau de neurones (CNNi, CNN'i), comportant un bloc d'extraction (Ai) et un bloc de traitement (Bi, B'i), le bloc de traitement étant configuré pour traiter des caractéristiques extraites par le bloc d'extraction, le premier réseau de neurones ayant fait d'objet d'un premier apprentissage, en utilisant la première base de données (DBi); le procédé étant caractérisé en ce qu'il comporte également :
- une constitution d'une deuxième base de données (DB2), comportant des mesures effectuées ou simulées sur une deuxième pièce modèle, représentative de la pièce caractérisée, selon une deuxième configuration, la deuxième configuration étant paramétrée en modifiant au moins un paramètre fixe de la première configuration ;
- un deuxième apprentissage, en utilisant la deuxième base de données (DB2), de façon à configurer un deuxième réseau de neurones convolutif (CNN2), le deuxième réseau de neurones convolutif comportant le bloc d'extraction (Ai) du premier réseau de neurones (CNNi, CNN'l), et un bloc de classification (B2), ce dernier étant configuré lors du deuxième apprentissage ;
- de telle sorte que lors de l'étape c), le réseau de neurones utilisé est le deuxième réseau de neurones convolutif (CNN2), résultant du deuxième apprentissage.
2. Procédé selon l'une quelconque des revendications précédentes, dans lequel le bloc de traitement du premier réseau de neurones est un bloc de classification (Bi), configuré, lors du premier apprentissage, pour effectuer une classification des caractéristiques extraites par le bloc d'extraction, le premier réseau de neurones étant un réseau de neurones convolutif (CNNi).
3. Procédé selon la revendication 2, dans lequel lors du deuxième apprentissage, le bloc de classification du deuxième réseau de neurones (B2) est initialisé en utilisant le bloc de classification du premier réseau de neurones (Bi).
4. Procédé selon la revendication 1, dans lequel le premier réseau de neurones (CNN'i) est de type auto-encodeur, ledit bloc de traitement (B'i) du premier réseau de neurones étant configuré, lors du premier apprentissage, pour reconstruire des données, issues de la première base de données (DBi), et formant des données d'entrée du premier réseau de neurones.
5. Procédé selon l'une quelconque des revendications précédentes, dans lequel le défaut est de type : délaminage, et/ou fissure, et/ou perforation et/ou fissure se propageant à partir d'une perforation et/ou présence d'une zone poreuse et/ou une présence d'une inclusion et/ou présence de corrosion.
6. Procédé selon l'une quelconque des revendications 1 à 4, dans lequel la pièce est constituée d'un matériau composite, composant des composants assemblés les uns aux autres, dans lequel le défaut est un défaut d'assemblage entre les composants.
7. Procédé selon l'une quelconque des revendications précédentes, dans lequel les mesures sont représentatives d'une distribution spatiale :
- de propriétés électriques ou magnétiques ou mécaniques de la pièce ;
- et/ou de dimensions de la pièce ;
- et/ou de propriétés de propagation d'une onde acoustique ou mécanique ou électromagnétique à travers ou le long de la pièce ;
- et/ou de propriétés de réflexion d'une onde acoustique ou mécanique ou d'une onde électromagnétique visible ou infra-rouge par la pièce ;
- et/ou de propriétés de transmission d'une onde électromagnétique X ou gamma par la pièce.
- et/ou d'une température de la pièce.
8. Procédé selon la revendication 7, dans lequel le défaut est une variation de la distribution spatiale par rapport à une distribution spatiale de référence.
9. Procédé selon l'une quelconque des revendications précédentes, dans lequel les mesures sont de type :
- mesure de courants de Foucault formés dans la pièce sous l'effet d'une excitation de la pièce par un champ magnétique ;
- ou mesure d'ondes acoustiques ou mécanique se propageant à travers ou le long de la pièce ;
- ou mesure de la réflexion d'une lumière infra-rouge ou visible lorsque la pièce est illuminée par une lumière infra-rouge ou visible ;
- ou mesure de la transmission d'un rayonnement X ou gamma à travers la pièce lorsque ladite pièce est irradiée par une source de rayonnement X ou gamma.
10. Procédé selon l'une quelconque des revendications précédentes, dans lequel :
- la première base de données (DBi) est constituée à partir de mesures simulées ;
- et la deuxième base de données (DB2) est formée à partir de mesures effectuées expérimentalement; ou
- la première base de données est constituée à partir de mesures effectuées expérimentalement ;
- et la deuxième base de donnée est formée à partir de mesures simulées ; ou
- la première base de données et la deuxième base de données sont constituées à partir de mesures simulées ; ou
- la première base de données et la deuxième base de données sont constituées à partir de mesures expérimentales.
11. Procédé selon l'une quelconque des revendications précédentes, dans lequel les conditions de mesure comprennent au moins :
- positionnement du capteur par rapport à la pièce modèle et/ou nombre de capteurs ;
- température et/ou humidité et/ou conditions environnementales à laquelle est mis en œuvre le capteur ;
- état de surface de la pièce inspectée ;
- niveau de bruit de mesure ;
- type de capteur utilisé ;
- incertitudes associées aux mesures.
12. Procédé selon l'une quelconque des revendications précédentes, dans lequel la première pièce modèle et la deuxième pièce modèle sont identiques.
13. Procédé selon l'une quelconque des revendications 1 à 11, dans lequel :
- la deuxième pièce modèle a une forme différente de la première pièce modèle ;
- et/ou la deuxième pièce modèle est formée d'un matériau différent de la première pièce modèle.
14. Procédé selon l'une quelconque des revendications précédentes, dans lequel la deuxième base de données comporte un nombre de données inférieur au nombre de données de la première base de données.
31 Procédé selon l'une quelconque des revendications précédentes, dans lequel la caractérisation du défaut comporte :
- une identification du type de défaut, parmi des types prédéterminés ;
- et/ou une estimation d'au moins une dimension du défaut ; - et/ou une localisation du défaut dans la pièce.
- et/ou détermination d'un nombre de défauts dans la pièce.
Priority Applications (3)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| EP21756011.9A EP4200603A1 (fr) | 2020-08-19 | 2021-08-19 | Procédé de caractérisation d'une pièce par contrôle non destructif |
| CA3188699A CA3188699A1 (fr) | 2020-08-19 | 2021-08-19 | Procede de caracterisation d'une piece par controle non destructif |
| US18/042,087 US20230314386A1 (en) | 2020-08-19 | 2021-08-19 | Method for characterizing a part through non-destructive inspection |
Applications Claiming Priority (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| FRFR2008564 | 2020-08-19 | ||
| FR2008564A FR3113529B1 (fr) | 2020-08-19 | 2020-08-19 | Procédé de caractérisation d’une pièce par contrôle non destructif |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| WO2022038233A1 true WO2022038233A1 (fr) | 2022-02-24 |
Family
ID=74347143
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| PCT/EP2021/073061 Ceased WO2022038233A1 (fr) | 2020-08-19 | 2021-08-19 | Procédé de caractérisation d'une pièce par contrôle non destructif |
Country Status (5)
| Country | Link |
|---|---|
| US (1) | US20230314386A1 (fr) |
| EP (1) | EP4200603A1 (fr) |
| CA (1) | CA3188699A1 (fr) |
| FR (1) | FR3113529B1 (fr) |
| WO (1) | WO2022038233A1 (fr) |
Cited By (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN120992756A (zh) * | 2025-10-20 | 2025-11-21 | 延安守山机械制造有限公司 | 一种油田专用抽油杆表面缺陷检测方法 |
Families Citing this family (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US20230297843A1 (en) * | 2022-03-15 | 2023-09-21 | Triad National Security, Llc | Deep learning method for defect characterization |
Citations (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| FR2721111A1 (fr) * | 1994-06-10 | 1995-12-15 | Icpi Lyon | Procédé de détermination des caractéristiques géométriques et acoustiques d'un matériau solide par ondes acoustiques d'interface. |
| US20190094124A1 (en) * | 2017-09-22 | 2019-03-28 | Saudi Arabian Oil Company | Thermography image processing with neural networks to identify corrosion under insulation (cui) |
Family Cites Families (6)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US8616062B2 (en) * | 2010-02-16 | 2013-12-31 | Hitachi-Ge Nuclear Energy, Ltd. | Ultrasonic inspection system and ultrasonic inspection method |
| DE102015204264A1 (de) * | 2015-03-10 | 2016-09-15 | Siemens Aktiengesellschaft | Prüfungsvorrichtung und Verfahren zur zerstörungsfreien Prüfung eines Bauteils |
| KR102141380B1 (ko) * | 2017-02-09 | 2020-08-05 | 주식회사 엘지화학 | 초음파를 이용한 알루미늄 파우치 실링을 위한 비파괴검사 판정시스템 |
| US20190193156A1 (en) * | 2017-12-09 | 2019-06-27 | Linbo Yang | Simultaneous 3D printing and NDT with Computer Tomography using LDA |
| FR3075376B1 (fr) * | 2017-12-14 | 2020-05-22 | Safran | Procede de controle non-destructif pour une piece aeronautique |
| KR102277276B1 (ko) * | 2019-11-18 | 2021-07-15 | (주)레이나 | 금속 물성 측정 시스템 및 그 측정 방법 |
-
2020
- 2020-08-19 FR FR2008564A patent/FR3113529B1/fr active Active
-
2021
- 2021-08-19 WO PCT/EP2021/073061 patent/WO2022038233A1/fr not_active Ceased
- 2021-08-19 CA CA3188699A patent/CA3188699A1/fr active Pending
- 2021-08-19 EP EP21756011.9A patent/EP4200603A1/fr active Pending
- 2021-08-19 US US18/042,087 patent/US20230314386A1/en active Pending
Patent Citations (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| FR2721111A1 (fr) * | 1994-06-10 | 1995-12-15 | Icpi Lyon | Procédé de détermination des caractéristiques géométriques et acoustiques d'un matériau solide par ondes acoustiques d'interface. |
| US20190094124A1 (en) * | 2017-09-22 | 2019-03-28 | Saudi Arabian Oil Company | Thermography image processing with neural networks to identify corrosion under insulation (cui) |
Non-Patent Citations (2)
| Title |
|---|
| SAEED NUMAN ET AL: "Automatic defects detection in CFRP thermograms, using convolutional neural networks and transfer learning", INFRARED PHYSICS AND TECHNOLOGY, ELSEVIER SCIENCE, GB, vol. 102, 23 September 2019 (2019-09-23), pages 1 - 8, XP085883933, ISSN: 1350-4495, [retrieved on 20190923], DOI: 10.1016/J.INFRARED.2019.103048 * |
| ZHANG MEI ET AL: "Two-step Convolutional Neural Network for Image Defect Detection", 2019 CHINESE CONTROL CONFERENCE (CCC), TECHNICAL COMMITTEE ON CONTROL THEORY, CHINESE ASSOCIATION OF AUTOMATION, 27 July 2019 (2019-07-27), pages 8525 - 8530, XP033635565, DOI: 10.23919/CHICC.2019.8866625 * |
Cited By (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN120992756A (zh) * | 2025-10-20 | 2025-11-21 | 延安守山机械制造有限公司 | 一种油田专用抽油杆表面缺陷检测方法 |
Also Published As
| Publication number | Publication date |
|---|---|
| US20230314386A1 (en) | 2023-10-05 |
| CA3188699A1 (fr) | 2022-02-24 |
| EP4200603A1 (fr) | 2023-06-28 |
| FR3113529B1 (fr) | 2023-05-26 |
| FR3113529A1 (fr) | 2022-02-25 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| EP3707503B1 (fr) | Contrôle de sante d'une structure industrielle | |
| EP4200604B1 (fr) | Procédé de caractérisation d'une pièce par contrôle non destructif | |
| FR3060743A1 (fr) | Procede et systeme de controle de sante integre d'une structure mecanique par ondes elastiques diffuses | |
| CN117540174B (zh) | 基于神经网络的建筑结构多源异构数据智能分析系统及方法 | |
| CN111624606B (zh) | 一种雷达图像降雨识别方法 | |
| WO2022038233A1 (fr) | Procédé de caractérisation d'une pièce par contrôle non destructif | |
| Olivieri et al. | Near-field acoustic holography analysis with convolutional neural networks | |
| CN115326782A (zh) | 一种利用拉曼光谱检测罗非鱼鱼肉脆度的方法 | |
| Singh et al. | Real-time super-resolution mapping of locally anisotropic grain orientations for ultrasonic non-destructive evaluation of crystalline material | |
| CN118674010A (zh) | 一种异构复合材料太赫兹特征峰识别的迁移学习方法 | |
| Yu et al. | Localization of impact on CFRP structure based on fiber Bragg gratings and CNN-LSTM-Attention | |
| WO2025124836A1 (fr) | Procédé de détection d'un défaut dans une structure à l'aide d'ondes mécaniques hautes fréquences | |
| EP3140677B1 (fr) | Procédé de traitement d'images sismiques | |
| EP4599242A1 (fr) | Procédé d'optimisation bi-niveau de la localisation de capteurs de détection de défaut(s) dans une structure par tomographie à ondes élastiques guidées | |
| Helvig et al. | Towards deep learning fusion of flying spot thermography and visible inspection for surface cracks detection on metallic materials | |
| FR3140437A1 (fr) | Optimisation du placement d’un ensemble de capteurs de détection d’anomalie(s) dans une structure par tomographie à ondes guidées | |
| CN114841892A (zh) | 一种基于全连接网络的稀疏导波数据恢复方法 | |
| Fisher et al. | Deep Learning Method Based on Denoising Autoencoders for Temperature Selection of Guided Waves Signals | |
| FR3057357A1 (fr) | Procede et dispositif de detection et de caracterisation d'un element reflecteur dans un objet | |
| WO2015075121A1 (fr) | Procede de reconstruction d'une surface d'une piece | |
| WO2025114576A1 (fr) | Méthode de détermination d'une loi de retards, méthode d'inspection, dispositif et produit-programme d'ordinateur associés | |
| Ullah | Deep learning-based approach for delamination identification using animation of Lamb waves propagation | |
| CN121252633A (zh) | 一种多维应变花传感器和应力-应变场模型构建方法 | |
| Hu et al. | Identification of Composite Damages in Cement-Based Structures Using Convolutional Variational Autoencoder Combined with Surface Wave Dispersion Energy | |
| WO2024209304A1 (fr) | Procédé de caractérisation de l'épaisseur d'une couche |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| 121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 21756011 Country of ref document: EP Kind code of ref document: A1 |
|
| ENP | Entry into the national phase |
Ref document number: 3188699 Country of ref document: CA |
|
| NENP | Non-entry into the national phase |
Ref country code: DE |
|
| ENP | Entry into the national phase |
Ref document number: 2021756011 Country of ref document: EP Effective date: 20230320 |