ES2963608T3 - Procedimiento de fabricación - Google Patents
Procedimiento de fabricación Download PDFInfo
- Publication number
- ES2963608T3 ES2963608T3 ES20768702T ES20768702T ES2963608T3 ES 2963608 T3 ES2963608 T3 ES 2963608T3 ES 20768702 T ES20768702 T ES 20768702T ES 20768702 T ES20768702 T ES 20768702T ES 2963608 T3 ES2963608 T3 ES 2963608T3
- Authority
- ES
- Spain
- Prior art keywords
- image
- images
- primary
- production
- objects
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0004—Industrial image inspection
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01N—INVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
- G01N21/00—Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
- G01N21/84—Systems specially adapted for particular applications
- G01N21/88—Investigating the presence of flaws or contamination
- G01N21/8803—Visual inspection
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
- G06N3/0455—Auto-encoder networks; Encoder-decoder networks
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/20—Image enhancement or restoration using local operators
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/13—Edge detection
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/088—Non-supervised learning, e.g. competitive learning
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30108—Industrial image inspection
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Quality & Reliability (AREA)
- Software Systems (AREA)
- Data Mining & Analysis (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Mathematical Physics (AREA)
- Analytical Chemistry (AREA)
- Immunology (AREA)
- Medical Informatics (AREA)
- Pathology (AREA)
- Chemical & Material Sciences (AREA)
- Biochemistry (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
- Containers And Plastic Fillers For Packaging (AREA)
- Pharmaceuticals Containing Other Organic And Inorganic Compounds (AREA)
- Extrusion Moulding Of Plastics Or The Like (AREA)
Abstract
La invención se refiere a un método para fabricar objetos, como tubos o envases, que comprende al menos un control de calidad integrado en el método de fabricación que se realiza durante la producción y en continuo, comprendiendo el control de calidad una fase de aprendizaje y una fase de producción. (Traducción automática con Google Translate, sin valor legal)
Description
DESCRIPCIÓN
Procedimiento de fabricación
Campo de la invención
La invención se sitúa en el campo de los objetos fabricados en serie que requieren una cuidadosa inspección visual durante su fabricación. La invención se aplica más particularmente a los procedimientos de fabricación de objetos de alta cadencia que requieren una inspección visual integrada en la línea de fabricación.
Estado de la técnica
En el estado de la técnica, se conocen sistemas y métodos de aprendizaje y de análisis de imágenes. Se dan ejemplos en las siguientes publicaciones: WO 2018/112514, WO 2018/200866, WO 2011/115666, WO 2012/164562 y WO 2017/052592, Wa Ng JINJIANG ET AL. “Deep learning for Smart manufacturing: Methods and applications” JOURNAL OF MANUFACTURING SYSTEMS, SOCIETY OF MANUFACTURING ENGINEERS, DEARBORN, MI, US, vol. 48, 8 de enero de 2018 (2018-01-08), páginas 144-156, MEHMOOD KHAN ET AL.: "An integrated supply chain model with errors in quality inspection and learning in production", OMEGA., vol. 42, no. 1, 1 de enero de 2014 (2014-01-01), páginas 16-24, WANG TIAN ET AL: "A fast and robust convolutional neural network-based defect detection modul in product quality control", THE INTERNATIONAL JOURNAL OF ADVANCED MANUFACTURING TECHNOLOGY, SPRINGER, LONDON, vol. 94, no. 9, 15 de agosto de 2017 (2017-08-15), páginas 3465-3471, JUN SUN ET AL: "An adaptable automated visual inspection scheme through online learning", THE INTERNATIONAL JOURNAL OF ADVANCED MANUFACTURING TECHNOLOGY, SPRINGER, BERLIN, DE, vol. 59, no. 5-8, 28 de julio de 2011 (2011-07-28), páginas 655-667.
Objetivo, exigencias y problemas por resolver
La presente invención tiene como finalidad definir criterios objetivos de cuantificación de la estética de objetos, como tubos, en producción. A día de hoy, esta cuantificación se funda en la apreciación humana y es muy difícil. Los objetos producidos son todos diferentes, por lo que la noción de defecto es relativa y es necesario definir qué es un defecto aceptable o no en relación con objetos producidos y no de manera absoluta.
Según la presente invención, una fase de aprendizaje permite definir una "norma" de lo que es aceptable para objetos producidos. En la invención, la noción de "defecto aceptable o inaceptable", es decir, un objeto considerado "bueno" o "defectuoso" se define en relación con un cierto nivel de desviación de la norma predefinida durante el aprendizaje. La invención permite garantizar un nivel de calidad constante en el tiempo. Además, se pueden reutilizar recetas, es decir, normas que ya han sido establecidas previamente, para producciones posteriores de un mismo objeto.
El nivel de calidad puede ajustarse a lo largo del tiempo en función de las diferencias observadas mediante un aprendizaje iterativo: durante la producción, la norma definida mediante el aprendizaje inicial se afina mediante un aprendizaje "adicional" que tiene en cuenta los objetos producidos en la fase de producción normal, pero que presentan defectos considerados aceptables. En consecuencia, es necesario adaptar la norma para que integre esta información y para que el proceso no rechace estos objetos.
La invención permite inspeccionar los objetos en muy poco tiempo y, para obtener este rendimiento, recurre a un modelo de compresión-descompresión de imágenes de los objetos como se describe detalladamente en la presente solicitud.
En el contexto de la presente invención, las exigencias planteadas y los problemas por resolver son en particular los siguientes:
- La inspección visual se realiza durante la fabricación del objeto, por lo que se reduce el tiempo de inspección, ya que no debe ralentizar la cadencia de producción o, como mucho, tener un pequeño impacto en ella.
- Se desconocen los defectos estéticos (no hay biblioteca de defectos).
- Los defectos estéticos varían en función de la decoración.
- El nivel de aceptación de los defectos debe ser ajustable.
El método propuesto en la invención que se describe a continuación permite paliar los inconvenientes antes mencionados y superar los problemas identificados.
Definiciones
- Objeto: objeto que se está fabricando en una línea industrial.
- N: número de objetos que forman un lote de la fase de aprendizaje. N también corresponde al número de imágenes secundarias que forman un lote.
- Imagen primaria: imagen tomada del objeto o de una parte del objeto.
- K: número de imágenes primarias por objeto.
- A<k>: imagen primaria de índice k con 1 < k < K.
- Imagen secundaria: parte de la imagen primaria.
- P<k>: número de imágenes secundarias por imagen primaria A<k>S<k,p>: Imagen secundaria de índice k asociada a la imagen primaria A<k>y de índice p con 1 < p < P<k>.
- Modelo F<k,p>: modelo de compresión-descompresión asociado a la imagen secundaria S<k,p>.
- Factor de compresión Q<k,p>: factor de compresión del modelo F<k,p>.
- Imagen secundaria reconstruida R<k,p>: Imagen secundaria reconstruida de la imagen secundaria S<k,p>con el modelo F<k,p>asociado.
Presentación general de la invención
La invención recae sobre un procedimiento de fabricación de objetos, como por ejemplo envases, como tubos, que comprende una inspección visual integrada en uno o más pasos del procedimiento de producción de dichos objetos. El procedimiento de fabricación según la invención comprende al menos dos fases para realizar la inspección visual: - Una fase de aprendizaje durante la cual se produce un lote de objetos considerados "de buena calidad" y al término de la cual se definen criterios a partir de las imágenes de dichos objetos.
- Una fase de producción durante la cual la imagen de los objetos que se están produciendo y los criterios definidos durante la fase de aprendizaje se utilizan para cuantificar en tiempo real la calidad de los objetos que se están produciendo y para dirigir el procedimiento de producción.
Durante la fase de aprendizaje, la máquina produce un número N de objetos considerados de calidad aceptable. Una (K=1) o varias imágenes distintas (K>1) llamada(s) imagen (imágenes) primaria(s) de cada objeto se recoge(n) a lo largo del procedimiento de producción de dichos objetos. Las KxN imágenes primarias recogidas se someten a un procesamiento digital que se describirá con más detalle a continuación y que comprende al menos los siguientes pasos: - Reposicionamiento de cada imagen primaria A<k>
- División de cada imagen primaria A<k>en P<k>imágenes secundarias denotadas por S<k,p>con 1 < k < K y 1 < p < P<k>- Agrupamiento de las imágenes secundarias en lotes de N imágenes similares.
- Para cada lote de imagen secundaria S<k,p>:
<o>Búsqueda de una representación comprimida F<k,p>factor de compresión Q<k,p>,
<o>A partir de cada lote de imagen secundaria, se infiere así un modelo F<k,p>de compresión-descompresión con factor de compresión Q<k,p>. Un caso particular de la invención consiste en tener el mismo factor de compresión para todos los modelos F<k,p>. El ajuste de la tasa de compresión Q<k,p>a cada modelo F<k,p>permite ajustar el nivel de detección de los defectos y optimizar el tiempo de cálculo en función del área observada del objeto. Al final de la fase de aprendizaje, tenemos por tanto un modelo F<k,p>y un factor de compresión Q<k,p>por área observada del objeto; definiéndose cada área por una imagen secundaria S<k,p>.
Como se explicará con más detalle a continuación, cada imagen secundaria del objeto tiene sus propias dimensiones. Un caso particular de la invención consiste en tener todas las imágenes secundarias de idéntico tamaño. En determinados casos, resulta ventajoso poder disminuir localmente el tamaño de las imágenes secundarias para detectar defectos más pequeños. Ajustando conjuntamente el tamaño de cada imagen secundaria S<k,p>y del factor de compresión Q<k,p>, la invención permite optimizar el tiempo de cálculo manteniendo un nivel de detección eficiente y ajustado al nivel de exigencia ligada al producto fabricado. La invención permite adaptar localmente el nivel de detección al nivel de criticidad del área observada.
Durante la fase de producción, se utilizan K imágenes llamadas "primarias" de cada objeto para controlar en tiempo real la calidad del objeto que se está produciendo, lo que permite retirar lo antes posible de la producción los posibles objetos defectuosos y/o regular el procedimiento o las máquinas cuando se observen derivas.
Para realizar el control en tiempo real del objeto que se está produciendo, se evalúan las K imágenes primarias de dicho objeto mediante un método descrito en la presente solicitud en relación con el grupo de imágenes primarias adquiridas durante la fase de aprendizaje de las que se extraen funciones de compresión-descompresión y factores de compresión que se aplican a las imágenes de dicho objeto que se está produciendo. Esta comparación entre imágenes adquiridas durante la fase de producción e imágenes adquiridas durante la fase de aprendizaje da lugar a la determinación de una o más puntuaciones por objeto, cuyos valores permiten clasificar los objetos con respecto a umbrales correspondientes a niveles visuales de calidad. Gracias al valor de las puntuaciones y a los umbrales predefinidos, los objetos defectuosos pueden descartarse del proceso de producción. Se pueden utilizar otros umbrales para detectar derivas del proceso de fabricación y permitir la corrección del procedimiento o una intervención sobre la herramienta de producción antes de que se formen objetos defectuosos.
Parte de la invención reside en el cálculo de las puntuaciones que permite, gracias a uno o más valores numéricos, cuantificar la calidad visual de los objetos en producción. El cálculo de las puntuaciones de cada objeto en producción requiere las siguientes operaciones:
- Adquisición de las imágenes primarias A<k>del objeto en producción.
- Reposicionamiento de cada imagen primaria con respecto a la imagen de referencia respectiva.
- División de las K imágenes primarias en imágenes secundarias S<k,p>utilizando la misma descomposición que la realizada durante la fase de aprendizaje.
- Cálculo de la imagen reconstruida R<k,p>de cada imagen secundaria S<k,p>utilizando el modelo F<k,p>y el factor Q<k,p>definidos durante la fase de aprendizaje.
- Cálculo del error de reconstrucción de cada imagen secundaria comparando la imagen secundaria S<k,p>y la imagen secundaria reconstruida R<k,p>. Con el conjunto de las imágenes secundarias del objeto obtenemos, por tanto, el conjunto de los errores de reconstrucción.
- Las puntuaciones del objeto se calculan a partir de los errores de reconstrucción.
La utilización del modelo numérico F<k,p>con factor de compresión Q<k,p>permite reducir significativamente el tiempo de cálculo y, en última instancia, permite controlar la calidad del objeto a lo largo del procedimiento de fabricación y dirigir el procedimiento. El método es particularmente adecuado para los procedimientos de fabricación de objetos de alta cadencia de producción.
La invención se utiliza ventajosamente en el campo del embalaje para controlar, por ejemplo, la calidad de envases destinados a los productos cosméticos. La invención es particularmente ventajosa, por ejemplo, para la fabricación de tubos cosméticos o frascos.
La invención se puede utilizar en un procedimiento de fabricación continuo. Este es el caso, por ejemplo, del procedimiento de fabricación de tubos de envasado en el que se suelda de manera continua una lámina multicapa para formar el cuerpo tubular. Es muy ventajoso controlar continuamente la estética de los cuerpos de los tubos fabricados y, en particular, de la zona de soldadura.
La invención se puede utilizar en un procedimiento de fabricación por lotes. Este es el caso, por ejemplo, de la fabricación de productos en dispositivos indexados. Se trata, por ejemplo, de un procedimiento de ensamblaje de una cabeza de tubo sobre un cuerpo de tubo mediante soldadura. La invención es particularmente ventajosa para controlar, en el procedimiento de montaje, la calidad visual de la zona soldada entre el cuerpo de tubo y la cabeza de tubo.
La invención se encamina principalmente a los procedimientos de fabricación de objetos en líneas de producción automatizadas. La invención es particularmente adecuada para la fabricación de objetos a alta cadencia de producción, como los objetos producidos en el sector del embalaje o cualquier otro sector que tenga altas cadencias de producción.
Según la invención, no es necesaria una biblioteca de defectos que permita definir su localización, su geometría o su color. Los fallos se detectan automáticamente durante la producción una vez que se ha ejecutado la operativa de aprendizaje.
En una realización, el procedimiento de fabricación de objetos, como tubos o envases, comprende al menos un control de calidad integrado en el procedimiento de fabricación realizado a lo largo de la producción y de forma continua, comprendiendo el control de calidad una fase de aprendizaje y una fase de producción. La fase de aprendizaje comprende al menos los siguientes pasos:
-) producción de N objetos considerados aceptables;
-) toma de al menos una imagen primaria (A<k>) de referencia de cada uno de los N objetos;
-) división de cada imagen primaria (A<k>) de referencia en (P<k>) imágenes secundarias (S<k,p>) de referencia;
-) agrupamiento de las correspondientes imágenes secundarias de referencia en lotes de N imágenes;
-) determinación de un modelo (F<k,p>) de compresión-descompresión y con un factor de compresión (Q<k,p>) por lote.
La fase de producción incluye al menos los siguientes pasos:
-) toma de al menos una imagen primaria de al menos un objeto en producción;
-) división de cada imagen primaria en imágenes secundarias (S<k,p>);
-) aplicación del modelo de compresión-descompresión y del factor de compresión definidos en la fase de aprendizaje a cada imagen secundaria (S<k,p>) para formar una imagen secundaria reconstruida (R<k,p>);
-) cálculo del error de reconstrucción de cada imagen secundaria reconstruida R<k,p>;
-) asignación de una o más puntuaciones por objeto basándose en los errores de reconstrucción;
-) determinación de si el objeto producido pasa o no con éxito el control de calidad basándose en la(s) puntuación (puntuaciones) asignada(s).
En unas realizaciones, después del paso de toma de al menos una imagen primaria (en la fase de aprendizaje y/o de producción), se reposiciona cada imagen primaria.
En unas realizaciones, cada imagen primaria se procesa, por ejemplo, digitalmente. El procesamiento puede, por ejemplo, hacer uso de un filtro digital (como el desenfoque gaussiano) y/o de la detección de contornos (“edge detection”) y/o de la aplicación de máscaras para ocultar determinadas áreas de la imagen, como, por ejemplo, el fondo o áreas carentes de interés.
En otras realizaciones, se ejecuta un análisis múltiple sobre una o más imágenes primarias. El análisis múltiple consiste en aplicar varios procesamientos simultáneamente a la misma imagen primaria. Así, una imagen primaria "madre" puede dar lugar a varias imágenes primarias "hijas" en función del número de análisis ejecutados. Por ejemplo, una imagen primaria "madre" puede ser objeto de un primer procesamiento con un filtro gaussiano que dé lugar a una primera imagen primaria "hija", y de un segundo procesamiento con un filtro de Sobel que dé lugar a una segunda imagen primaria "hija". Las dos imágenes primarias “hijas” se someten al mismo procesamiento digital definido en la invención para las imágenes primarias. Así, se podrán asociar una o más puntuaciones a cada imagen primaria “hija”. Además, entre las imágenes primarias tomadas inicialmente (en la fase de aprendizaje y en la fase de producción), se puede decidir aplicar un análisis múltiple a todas las imágenes primarias, o solo a una parte de ellas (o incluso únicamente a una imagen primaria). A continuación, todas las imágenes primarias (las imágenes "hijas" que proceden del análisis múltiple y aquellas a las que no se les ha aplicado el análisis múltiple) se procesan con el procedimiento según la invención.
El análisis múltiple es interesante cuando se buscan defectos muy diferentes en los objetos. Así, el análisis múltiple permite adaptar el análisis de las imágenes al defecto buscado. Este método permite una mayor precisión de detección para cada tipo de defecto.
Entre 5 y 500’000, preferiblemente entre 100 y 10 000. En unas realizaciones, el factor de compresión está comprendido
En unas realizaciones, la función de compresión-descompresión se puede determinar a partir de un análisis de componentes principales ("PCA").
En unas realizaciones, la función de compresión-descompresión se puede determinar mediante un codificador automático.
En unas realizaciones, la función de compresión-descompresión se puede determinar mediante el algoritmo llamado "OMP" (Orthogonal Matching Pursuit).
En unas realizaciones, el error de reconstrucción se puede calcular mediante la distancia euclidiana y/o la distancia de Minkowski y/o el método de Chebycheff.
En unas realizaciones, la puntuación puede corresponder al valor máximo de los errores de reconstrucción y/o a la media de los errores de reconstrucción y/o a la media ponderada de los errores de reconstrucción y/o a la distancia euclidiana y/o a la distancia p y/o la distancia de Chebycheff.
En unas realizaciones, N puede ser igual a al menos 10.
En unas realizaciones, se toman al menos dos imágenes primarias, siendo las imágenes primarias de idéntico tamaño o de diferente tamaño.
En unas realizaciones, la división de cada imagen primaria se puede realizar en P imágenes secundarias de idéntico tamaño o de diferente tamaño.
En unas realizaciones, las imágenes secundarias S se pueden yuxtaponer con superposición o sin superposición. En unas realizaciones, algunas imágenes secundarias se pueden yuxtaponer con superposición y otras imágenes secundarias se yuxtaponen sin superposición.
En unas realizaciones, las imágenes secundarias pueden ser de idéntico tamaño o de diferente tamaño.
En unas realizaciones, el control de calidad integrado se puede realizar al menos una vez en el procedimiento de fabricación.
En unas realizaciones, la fase de aprendizaje puede ser iterativa y repetirse durante la producción con objetos en producción para tener en cuenta una diferencia que no se considera un defecto.
En unas realizaciones, el reposicionamiento puede consistir en considerar un número predeterminado de puntos de interés y descriptores distribuidos sobre la imagen y en determinar el desplazamiento relativo entre la imagen de referencia y la imagen primaria que minimiza el error de superposición en los puntos de interés.
En unas realizaciones, los puntos de interés pueden distribuirse aleatoriamente en la imagen o en un área predefinida de la imagen.
En unas realizaciones, la posición de los puntos de interés puede estar predefinida, de forma arbitraria o no.
En unas realizaciones, los puntos de interés pueden detectarse mediante uno de los métodos llamados "SIFT", o "SURF", o "FAST" u "ORB"; y los descriptores definidos por uno de los métodos "SIFT", o "SURF", o "BRIEF" u "ORB". En unas realizaciones, la imagen se puede reposicionar según al menos un eje y/o la imagen se puede reposicionar en rotación alrededor del eje perpendicular al plano formado por la imagen y/o la imagen se puede reposicionar mediante la combinación de un movimiento de traslación y de rotación.
Exposición detallada de la invención
Las figuras 1 a 7 se utilizan para ilustrar la invención.
La figura 1 es un ejemplo de un objeto durante su fabricación.
La figura 2 muestra las imágenes primarias tomadas durante la fase de aprendizaje.
La figura 3 ilustra la segmentación de las imágenes primarias en imágenes secundarias.
La figura 4 representa la fase de aprendizaje y, en particular, la formación de lotes de imágenes secundarias para finalmente obtener un modelo de compresión-descompresión por lote.
La figura 5 ilustra la utilización del modelo de compresión-descompresión durante la fase de producción.
La figura 6 describe en forma de diagrama de bloques los principales pasos de la fase de aprendizaje.
La figura 7 describe en forma de diagrama de bloques los principales pasos de la fase de producción.
La figura 1 ilustra un objeto 1 durante su fabricación. Para ilustrar la invención y facilitar la comprensión de la invención, se han representado en el objeto, a título de ejemplo no limitativo, tres motivos decorativos. La invención permite el control de la calidad de estos motivos en los objetos durante la producción. La invención permite inspeccionar cualquier tipo de objeto o parte de objeto. Los objetos pueden considerarse como piezas unitarias según el ejemplo presentado en la figura 1. En otros procedimientos, como la fabricación de tubo mediante soldadura de un laminado impreso que se desenrolla y se forma en un procedimiento continuo; el objeto se define por la dimensión del motivo decorativo repetitivo en el tubo que se está formando. En otro caso en donde sería complicado definir el tamaño del objeto, como, por ejemplo, un procedimiento de extrusión continua de una lámina o de un tubo, el objeto se puede definir arbitrariamente por la dimensión de la imagen tomada a intervalos regulares del producto extruido.
La figura 2 ilustra un ejemplo de imágenes primarias del objeto tomadas durante la fase de aprendizaje. Durante esta fase de aprendizaje, se producen N objetos que se consideran de calidad aceptable. Para facilitar la ilustración de la invención, en la figura 2 solo se han representado a título de ejemplo 4 objetos. Para obtener un modelo robusto, el número de objetos necesario durante la fase de aprendizaje debe ser superior a 10 (es decir, N>10) y preferiblemente superior a 50 (es decir, N>50). Por supuesto, estos valores son ejemplos no limitativos y N puede ser inferior o igual a 10. La figura 2 muestra las 3 imágenes primarias A<1>, A<2>y A<3>que respectivamente representan distintos motivos impresos en el objeto. En la presentación de la invención, designamos por A<k>las imágenes primarias del objeto, variando el índice k de la imagen entre 1 y K; y correspondiendo K al número de imágenes por objeto.
Como se ilustra en la figura 2, el tamaño de las imágenes primarias A<k>no es necesariamente idéntico. En la figura 2, la imagen primaria A<2>es de dimensión más pequeña que las imágenes primarias A<1>y A<3>. Esto permite, por ejemplo, tener una imagen A<2>con mejor definición (mayor número de píxeles). Las imágenes primarias pueden cubrir toda la superficie del objeto 1 o, por el contrario, cubrir solo parcialmente su superficie.
Como se ilustra en la figura 2, las imágenes primarias A<k>apuntan a áreas particulares del objeto. Esta flexibilidad de la invención, tanto en tamaño como en posición y número de imágenes primarias, permite optimizar el tiempo de cálculo, conservando una gran precisión en el control de la calidad visual en las áreas más críticas.
La figura 2 también ilustra la necesidad de producir imágenes A<1>similares de un objeto a otro. Esto requiere la implantación de medios adecuados para posicionar repetidamente el objeto o la cámara al tomar imágenes A<k>. Como se explicará más adelante en la presentación de la invención, a pesar de los medios implementados para ser repetitivos de una imagen a otra, a menudo es necesario proceder a un reposicionamiento de las imágenes primarias con respecto a una imagen de referencia para obviar las variaciones inherentes a la toma de imágenes en un procedimiento de fabricación industrial, así como las variaciones inherentes a los objetos producidos. El reposicionamiento de las imágenes se realiza con gran precisión, ya que son elementos de pequeño tamaño de la imagen, como, por ejemplo, píxeles, los que se utilizan para realizar este reposicionamiento.
La figura 3 muestra la segmentación de las imágenes primarias en imágenes secundarias. Así, como se ilustra en la figura 3, la imagen primaria A<1>se segmenta en 4 imágenes secundarias S<1 , 1>, S<1 ,2>, S<1,4>y S<14>Así, cada imagen primaria A<k>se descompone en P<k>imágenes secundarias S<k,p>, variando el índice de segmentación p entre 1 y P<k>.
Como se muestra en la figura 3, el tamaño de las imágenes secundarias no es necesariamente idéntico. A título de ejemplo, la figura 3 muestra que las imágenes secundarias S<1,2>y S<1,3>son de menor dimensión que las imágenes secundarias S<1,1>y S<1,4>. Esto permite tener una búsqueda de defectos más precisa en las imágenes secundarias S<1,2>y S<1,3>.
Como también se muestra en la figura 3, las imágenes secundarias no necesariamente cubren toda la imagen primaria A<k>. A título de ejemplo, las imágenes secundarias S<2,p>cubren solo parcialmente la imagen primaria A<2>. Al reducir el tamaño de las imágenes secundarias, concentramos el análisis en una área concreta del objeto. Solo se analizan las áreas del objeto cubiertas por las imágenes secundarias.
La figura 3 ilustra el hecho de que la invención permite ajustar localmente el nivel de control de la estética del objeto ajustando el número, el tamaño y la posición de las imágenes secundarias S<k,p>.
La figura 4 ilustra la fase de aprendizaje y, en particular, la formación de lotes de imágenes secundarias para obtener finalmente un modelo de compresión-descompresión con un factor de compresión por lote.
La figura 4 muestra el agrupamiento de las N imágenes secundarias S<k,p>similares para formar un lote. Cada lote se procesa por separado y se utiliza para crear un modelo F<k,p>de compresión-descompresión con factor de compresión Q<k,p>. Así, a título de ejemplo y como se ilustra en la figura 3, las N=4 imágenes secundarias S<3,3>se utilizan para crear el modelo F<3,3>de factor de compresión Q<3,3>.
La figura 5 ilustra la utilización del modelo de compresión-descompresión que se deriva de la fase de aprendizaje en la fase de producción. En la fase de producción, cada modelo F<k,p>determinado en la fase de aprendizaje se utiliza para calcular la imagen reconstruida de cada imagen secundaria S<k,p>del objeto que se está fabricando. Por tanto, cada imagen secundaria del objeto se somete a una operación de compresión-descompresión con un modelo y un factor de compresión diferentes procedentes de la fase de aprendizaje. Cada operación de compresión-descompresión da como resultado una imagen reconstruida que se puede comparar con la imagen secundaria de la que procede. La comparación de la imagen secundaria S<k,p>y su imagen reconstruida R<k,p>permite calcular un error de reconstrucción que se utilizará para definir una puntuación.
La figura 5 ilustra, a título de ejemplo ilustrativo, el caso particular de la obtención de la imagen reconstruida R3,3 a partir de la imagen secundaria S<3,3>utilizando el modelo F<3,3>y su factor de compresión Ü<3.3>.
La figura 6 representa los principales pasos de la fase de aprendizaje según la presente invención. Al comienzo de la fase de aprendizaje, se producen N objetos que se consideran de calidad aceptable. El juicio cualitativo y/o cuantitativo de dichos objetos puede realizarse según operativas de inspección visual o según métodos y medios definidos por la empresa. Por lo tanto, el número de objetos producidos para la fase de aprendizaje puede ser igual a N o superior a N. La fase de aprendizaje ilustrada en la figura 6 incluye al menos los siguientes pasos:
• Adquisición de las KxN imágenes llamadas “primarias” de los objetos considerados de buena calidad durante la fabricación de dichos objetos. A cada objeto se le puede asociar una (K=1) o varias (K>1) imágenes primarias distintas según las dimensiones del área por analizar en el objeto y del tamaño de los defectos que se deseen detectar. Se implementan condiciones de iluminación y de aumento apropiadas para el contexto industrial para permitir la toma de imágenes en un entorno luminoso relativamente constante. Se pueden implementar las técnicas conocidas de optimización de la iluminación para evitar los fenómenos de reflexión o las perturbaciones relacionadas con el entorno. Se pueden adoptar múltiples soluciones habitualmente utilizadas, como, por ejemplo, túneles o cajas negras que permiten evitar perturbaciones de iluminación procedentes del exterior, y/o luces con longitudes de onda específicas y/o iluminación en luz rasante o en iluminación indirecta. Cuando se toman varias imágenes primarias sobre un mismo objeto (K>1), dichas imágenes primarias pueden estar espaciadas, yuxtapuestas o incluso solaparse. El solapamiento de las imágenes primarias puede resultar útil cuando se desea evitar segmentar un posible defecto que apareciese entre dos imágenes, y/o para compensar la pérdida de información en el borde de la imagen ligada al paso de reposicionamiento de las imágenes. También se pueden combinar estas formas de obrar en función de las imágenes primarias y de la información que allí se encuentra. La imagen también se puede preprocesar por mediación de filtros ópticos o digitales para, por ejemplo, aumentar el contraste.
• A continuación, las imágenes primarias se reposicionan con respecto a una imagen de referencia. Con carácter general, las imágenes primarias de cualquier objeto producido durante la fase de aprendizaje pueden servir de imágenes de referencia. Preferiblemente, las imágenes primarias del primer objeto producido durante la fase de aprendizaje se utilizan como imágenes de referencia. Los métodos de reposicionamiento de la imagen primaria se detallan más adelante en la descripción de la presente solicitud.
• Cada imagen primaria A<k>se divide a continuación en P<k>imágenes llamadas “secundarias”. La división de la imagen puede dar como resultado un área de análisis más reducida que la imagen principal. Una reducción del área de análisis puede resultar interesante cuando se sabea priorien qué área del objeto buscar posibles defectos. Este es el caso, por ejemplo, de los objetos fabricados mediante soldadura y en donde buscamos defectos relacionados con la operación de soldadura. Las imágenes secundarias se pueden espaciar entre sí dejando áreas "no analizadas" entre ellas. Este escenario se puede utilizar, por ejemplo, cuando los defectos aparecen en áreas selectivas o cuando los defectos aparecen de forma repetitiva y continua. La reducción del área de análisis permite reducir los tiempos de cálculo. Alternativamente, las imágenes secundarias pueden superponerse. El solapamiento de las imágenes secundarias permite evitar segmentar en dos partes un defecto cuando dicho defecto aparece en la unión entre dos imágenes secundarias. El solapamiento de las imágenes secundarias es particularmente útil cuando se buscan defectos de pequeño tamaño. Finalmente, las imágenes secundarias se pueden yuxtaponer sin espaciados ni solapamientos. La división de la imagen primaria se puede realizar en imágenes secundarias de tamaños idénticos o variables y también pueden combinarse las formas de posicionamiento relativo de las imágenes secundarias (espaciadas, yuxtapuestas o superpuestas) en función de los defectos buscados.
• El siguiente paso consiste en agrupar las imágenes secundarias correspondientes en lotes. Las imágenes secundarias obtenidas a partir de las KxN imágenes primarias dan lugar a un conjunto de imágenes secundarias. A partir de este conjunto de imágenes secundarias, se pueden formar lotes que contengan N imágenes secundarias correspondientes, es decir, la misma imagen secundaria S<k,p>de cada objeto. Así, las N imágenes secundarias S<1,1>se agrupan en un lote. Lo mismo ocurre con las N imágenes S<1 ,2>, y luego con las N imágenes S<1 ,3>, y así sucesivamente con todas las imágenes S<k,p>.
• El siguiente paso consiste en buscar una representación comprimida por lote de imágenes secundarias. Esta operación es un paso clave de la invención. Consiste, en particular, en obtener un modelo de compresióndescompresión F<k,p>con factor de compresión Q<k,p>que caracterizan dicho lote. Los modelos F<k,p>se utilizarán para el control de calidad de los objetos durante la fase de producción. Así, obtenemos el modelo F<1,1>de criterio de compresión Q<1,1>para el lote de las imágenes secundarias S<1 , 1>. Asimismo el modelo F<1,2>se obtiene para el lote de imágenes S<1 ,2>; luego, modelo F<1,3>para el lote de imágenes S<1 ,3>; y así sucesivamente, se obtiene un modelo F<k,p>para cada lote de imágenes S<k,p>.
• La elección del factor de compresión Q<k,p>por lote de imágenes secundarias S<k,p>depende del tiempo de cálculo disponible y del tamaño del defecto que queramos detectar.
• Al final de la fase de aprendizaje, tenemos un conjunto de modelos F<k,p>con factor de compresión Q<k,p>que están asociados con la calidad visual del objeto que se está produciendo.
Según la invención, los resultados de la fase de aprendizaje que son los modelos F<k,p>y los factores de compresión Q<k,p>se pueden conservar como una "receta" y reutilizarse posteriormente cuando se vuelvan a producir los mismos objetos. De este modo, se pueden reproducir posteriormente objetos de idéntica calidad reutilizando la receta predefinida. Esto permite también evitar repetir una fase de aprendizaje antes de comenzar cada producción de dichos mismos objetos.
Según la invención, es posible tener un aprendizaje iterativo durante la producción. Así, durante la producción, es posible, por ejemplo, realizar un aprendizaje adicional (o complementario) con nuevos objetos y añadir las imágenes de estos objetos a las imágenes de los objetos inicialmente tenidos en cuenta en la fase de aprendizaje. A partir del nuevo conjunto de imágenes, se puede realizar una nueva fase de aprendizaje. El aprendizaje evolutivo es particularmente adecuado si aparece una diferencia entre los objetos durante la producción y esta diferencia no se considera un defecto. En otras palabras, estos objetos se considerarán “buenos” como en la fase inicial de aprendizaje y es preferible tener esto en cuenta. En este escenario, se necesita un aprendizaje iterativo para evitar una alta tasa de rechazo que incluiría los objetos que presenten esta diferencia. El aprendizaje iterativo se puede llevar a cabo de muchas maneras, por ejemplo, ya sea aunando las nuevas imágenes con las imágenes aprendidas previamente; ya sea recomenzando el aprendizaje con las nuevas imágenes aprendidas; o bien conservando solo algunas imágenes iniciales con las nuevas imágenes.
Según la invención, el aprendizaje iterativo se activa mediante un indicador relacionado con el rechazo de los objetos. Este indicador es, por ejemplo, el número de rechazos por unidad de tiempo o el número de rechazos por cantidad de objetos producidos. Cuando este indicador excede un valor fijado, el operador es alertado y decide si el aumento de la tasa de rechazo requiere un ajuste de la máquina (porque las diferencias son defectos) o un nuevo aprendizaje (porque las diferencias no son defectos).
La figura 7 representa los principales pasos de la fase de producción de los objetos. La fase de producción comienza después de la fase de aprendizaje, es decir, cuando se han definido los criterios característicos de los objetos de "calidad" aceptable como se describe anteriormente. La invención permite descartar en tiempo real los objetos defectuosos del lote de producción y evitar la producción de residuos excesivos cuando se observa una deriva en la calidad producida. La invención también permite informar en tiempo real de las derivas del procedimiento de producción y adelantarse a la producción de objetos defectuosos. De hecho, entonces podemos actuar sobre la herramienta de producción (como las máquinas) para corregir el procedimiento de producción y corregir los defectos detectados, o corregir una deriva. La fase de producción según la invención ilustrada en la figura 7 comprende al menos las siguientes operaciones:
• Adquisición de K imágenes primarias del objeto que se está fabricando. Las imágenes del objeto se toman de forma idéntica a las imágenes tomadas en la fase de aprendizaje: las áreas fotografiadas, las condiciones de iluminación, de aumento y de ajuste son idénticas a las utilizadas durante la fase de aprendizaje.
• Las K imágenes se reposicionan con respecto a las imágenes de referencia. El objetivo de la operación de reposicionamiento es obviar ligeros desplazamientos entre las imágenes que deseamos comparar. Estos desplazamientos pueden estar relacionados con las vibraciones o con el movimiento relativo entre los objetos y los aparatos de toma de imágenes.
• Cada imagen primaria A<k>del objeto en producción se divide a continuación en P<k>imágenes secundarias. La división se realiza de la misma forma que la división de las imágenes realizada en la fase de aprendizaje. Al término de esta división, se obtiene, por tanto, un conjunto de imágenes secundarias S<k,p>por objeto en producción.
• Cada imagen secundaria S<k,p>se comprime-descomprime a continuación con el modelo F<k,p>con factor de compresión F<k,p>predefinido durante la fase de aprendizaje. Esta operación da lugar a una imagen reconstruida R<k,p>por cada imagen secundaria S<k,p>. Así, del objeto que se está produciendo, se obtienen imágenes reconstruidas que pueden compararse con las imágenes secundarias de dicho objeto. Desde un punto de vista digital, el uso del término "reconstrucción de la imagen secundaria" no significa necesariamente la obtención de una nueva imagen en el sentido estricto del término. El objetivo es, en última instancia, comparar la imagen del objeto que se está produciendo con las imágenes obtenidas en la fase de aprendizaje por medio de las funciones de compresión-descompresión y de los factores de compresión, siendo estrictamente útil solo la cuantificación de la diferencia entre estas imágenes. Por razones de tiempo de cálculo, se puede optar por limitarse a un objeto digital representativo de la imagen reconstruida y suficiente para cuantificar la diferencia entre la imagen secundaria y la imagen reconstruida. La utilización del modelo F<k,p>es particularmente ventajosa porque permite realizar esta comparación en tiempos muy cortos compatibles con los requerimientos y las cadencias de producción.
• A partir de la comparación de la imagen secundaria y la imagen secundaria reconstruida, se puede calcular un error de reconstrucción. El método preferido para cuantificar este error es el cálculo del error cuadrático medio, pero son posibles otros métodos equivalentes.
• Por cada objeto tenemos, por tanto, imágenes secundarias e imágenes reconstruidas y, en consecuencia, errores de reconstrucción. A partir de este conjunto de errores de reconstrucción, se pueden definir una o más puntuaciones para el objeto que se está produciendo. Son posibles varios métodos de cálculo para calcular las puntuaciones del objeto que caracterizan su semejanza o diferencia con respecto al lote aprendido. Así, según la invención, un objeto apartado visualmente del lote de aprendizaje porque tiene defectos tendrá una o más puntuaciones altas. Por el contrario, un objeto visualmente cercano al lote de aprendizaje tendrá una o más puntuaciones bajas y se considerará de buena calidad o de calidad aceptable. Un método preferido de cálculo de la o las puntuaciones del objeto consiste en tomar el valor máximo de los errores de reconstrucción. Otros métodos consisten en combinar los errores de reconstrucción para calcular el valor de la o las puntuaciones del objeto.
• El siguiente paso consiste en descartar los artículos defectuosos del lote de producción. Si el valor de la o las puntuaciones del objeto es inferior a uno o más límites predefinidos, el objeto evaluado cumple con los criterios de calidad visuales definidos en la fase de aprendizaje y el objeto se mantiene en el flujo de producción. Por el contrario, si el o los valores de la o las puntuaciones del objeto es (son) superior(es) a dicho(s) límite(s), el objeto se descarta del flujo de producción. Cuando se descartan varios objetos consecutivos del flujo de producción, o cuando la tasa de piezas defectuosas aumenta considerablemente, se pueden contemplar acciones de corrección del procedimiento o intervenciones en las máquinas de producción.
A continuación se retoman y presentan con más detalle los pasos de la invención.
Reposicionamiento de la imagen primaria
El método de reposicionamiento de la imagen según la invención incluye dos pasos:
- La búsqueda en la imagen de puntos de interés y de descriptores.
- El reposicionamiento de la imagen tomada con respecto a la imagen de referencia a partir de los puntos de interés y los descriptores.
Normalmente, la imagen o las imágenes de referencia se define(n) en la primera imagen tomada en la fase de aprendizaje u otra imagen, como se describe en la presente solicitud. El primer paso consiste en definir en la imagen puntos de interés y descriptores asociados a los puntos de interés. Los puntos de interés pueden ser, por ejemplo, partes angulares en las formas presentes en la imagen, también pueden ser áreas con alto contraste de intensidad o de color o también los puntos de interés pueden elegirse aleatoriamente. Los puntos de interés identificados se caracterizan a continuación mediante descriptores que definen las características de estos puntos de interés.
Preferiblemente, los puntos de interés se determinan automáticamente gracias a un algoritmo apropiado; pero un método alternativo consiste en predefinir arbitrariamente la posición de los puntos de interés.
El número de puntos de interés utilizado para el reposicionamiento es variable y depende del número de píxeles por punto de interés. El número total de píxeles utilizado para el posicionamiento está generalmente comprendido entre 100 y 10000 y preferiblemente entre 500 y 1000.
Un primer método para definir los puntos de interés consiste en elegir estos puntos de forma aleatoria. Esto equivale a definir aleatoriamente un porcentaje de píxeles denominados puntos de interés, siendo los descriptores las características de dichos píxeles (posición, colores). Este primer método es particularmente adecuado en el contexto de la producción industrial, especialmente en el caso de los procedimientos de fabricación a alta cadencia donde el tiempo disponible para el cálculo es muy reducido.
Según una primera realización del primer método, los puntos de interés se distribuyen de forma aleatoria en la imagen.
Según una segunda realización del primer método, los puntos de interés se distribuyen aleatoriamente en un área predefinida de la imagen. Esta segunda modalidad resulta ventajosa cuando sabemosa prioridónde aparecerán los posibles defectos. Este es el caso, por ejemplo, de un procedimiento de soldadura en donde se esperan defectos principalmente en el área afectada por la operación de soldadura. En este caso, resulta ventajoso posicionar los puntos de interés fuera del área afectada por la operación de soldadura.
Un segundo método para definir puntos de interés se basa en el método denominado "SIFT" ("Scale Invariant Feature Transform", ver la publicación US 6.711.293), esto es, un método que permite conservar las mismas características visuales de la imagen independientemente de la escala. Este método consiste en calcular los descriptores de imagen en los puntos de interés de dicha imagen. Estos descriptores corresponden a información digital derivada del análisis local de la imagen y que caracteriza el contenido visual de la imagen independientemente de la escala. El principio de este método consiste en detectar áreas definidas alrededor de puntos de interés de la imagen; siendo dichas áreas preferentemente circulares con un radio denominado factor de escala. En cada una de estas áreas, buscamos las formas y sus contornos, luego definimos las orientaciones locales de los contornos. Numéricamente, estas orientaciones locales se traducen en un vector que constituye el descriptor "SIFT" del punto de interés.
Un tercer método para definir los puntos de interés se basa en el método "SURF" ("Speeded Up Robust Features", ver la publicación US 2009/0238460), esto es, un método acelerado para definir los puntos de interés y los descriptores. Este método es similar al método "SIFT", pero tiene la ventaja de la velocidad de ejecución. Este método incluye, al igual que "SIFT", un paso de extracción de los puntos de interés y de cálculo de los descriptores. El método "SURF" utiliza Fast-Hessian para la detección de los puntos de interés y una aproximación de wavelets de Haar para calcular los descriptores.
Un cuarto método de búsqueda de los puntos de interés basado en el método "FAST" (Features from Accelerated Segment Test) consiste en identificar los puntos de interés potenciales y luego analizar la intensidad de los píxeles situados alrededor de dichos puntos de interés. Este método permite identificar los puntos de interés muy rápidamente. Los descriptores se pueden identificar por medio del método “BRIEF” (Binary Robust Independent Elementary Features).
El segundo paso del método de reposicionamiento de la imagen consiste en comparar la imagen primaria con la imagen de referencia utilizando los puntos de interés y sus descriptores. La obtención del mejor reposicionamiento se obtiene buscando la mejor alineación entre los descriptores de las dos imágenes.
El valor de reposicionamiento de la imagen depende de los procedimientos de fabricación y, en particular, de la precisión del posicionamiento espacial del objeto en el momento de la toma de imagen. Dependiendo de la situación, la imagen puede requerir un reposicionamiento según un solo eje, según dos ejes perpendiculares o incluso un reposicionamiento en rotación alrededor del eje perpendicular al plano formado por la imagen.
El reposicionamiento de la imagen puede resultar de la combinación de movimientos de traslación y de rotación. La transformación homográfica óptima se busca mediante el método de mínimos cuadrados.
Para la operación de reposicionamiento de la imagen, utilizamos los puntos de interés y los descriptores. Estos descriptores pueden ser, por ejemplo, las características de los píxeles o los descriptores “SIFT”, “SURF”, “BRIEF”, por ejemplo. Los puntos de interés y los descriptores se utilizan como puntos de referencia para reposicionar la imagen.
El reposicionamiento en los métodos SIFT, SURF y BRIEF se realiza mediante la comparación de los descriptores. Los descriptores que no son relevantes se descartan utilizando un método de consenso como, por ejemplo, el método de Ransac. A continuación, se busca la transformación homográfica óptima mediante el método de mínimos cuadrados.
División de la imagen primaria en imágenes secundarias
La división de la imagen primaria en P imágenes secundarias se puede realizar de varias formas.
Una ventaja de la invención es que permite ajustar el nivel de análisis visual al área observada del objeto. Este ajuste se realiza en primera instancia mediante el número de imágenes primarias y el nivel de resolución de cada imagen primaria. La descomposición en imágenes secundarias permite a continuación ajustar localmente el nivel de análisis en cada imagen primaria. Un primer parámetro sobre el que podemos intervenir es el tamaño de las imágenes secundarias. Una imagen secundaria de menor tamaño permite afinar el análisis localmente. Ajustando conjuntamente el tamaño de cada imagen secundaria S<k,p>y el factor de compresión Q<k,p>, la invención permite optimizar el tiempo de cálculo conservando un nivel de detección eficiente y ajustado al nivel de requerimiento ligado al producto fabricado. La invención permite adaptar localmente el nivel de detección al nivel de criticidad del área observada.
Un caso particular de la invención consiste en tener todas las imágenes secundarias de idéntico tamaño.
Así, cuando toda el área observada es de igual relevancia, un primer método consiste en dividir la imagen primaria en P imágenes secundarias de idéntico tamaño yuxtapuestas sin superposición.
Un segundo método consiste en dividir la imagen primaria en P imágenes secundarias de idéntico tamaño yuxtapuestas con superposición. La superposición se ajusta en función de la dimensión de los defectos que puedan aparecer en el objeto.
Cuanto más pequeño sea el defecto, más podrá disminuirse la superposición. En general, se considera que la superposición es al menos igual a la semi-longitud característica del defecto; definiéndose la longitud característica como el diámetro más pequeño del círculo que permite contener el defecto en su totalidad.
Por supuesto, es posible combinar estos métodos y utilizar imágenes secundarias que estén yuxtapuestas y/o superpuestas y/o a una cierta distancia entre sí.
Cálculo de las funciones de compresión-descompresión
Según un primer método, que es también el método preferido, las funciones de compresión-descompresión y los factores de compresión se determinan a partir de un análisis de componentes principales ("PCA" o "Principal Component Analysis"). Este método permite definir los vectores y valores propios que caracterizan el lote procedente de la fase de aprendizaje. En la nueva base, los vectores propios se clasifican por orden de importancia. El factor de compresión se deriva del número de dimensiones que conservamos en la nueva base. Cuanto mayor sea el factor de compresión, más se reducirá el número de dimensiones de la nueva base. La invención permite ajustar el factor de compresión en función del nivel de inspección deseado y en función del tiempo de cálculo disponible.
Una primera ventaja de este método está relacionada con el hecho de que la máquina no necesita ninguna indicación para definir la nueva base. La elección de los vectores propios se realiza automáticamente mediante cálculo.
Una segunda ventaja de este método está relacionada con la reducción del tiempo de cálculo para detectar los defectos durante la fase de producción. El número de datos que han de procesarse se reduce porque se reduce el número de dimensiones.
Una tercera ventaja del método resulta de la posibilidad de asignar una o más puntuaciones en tiempo real a la imagen del objeto que se está produciendo. La o las puntuaciones obtenidas permiten cuantificar una tasa de desviación/error del objeto que se está fabricando con respecto a los objetos de la fase de aprendizaje mediante su reconstrucción con los modelos procedentes de la fase de aprendizaje.
El factor de compresión está comprendido entre 5 y 500000; y preferiblemente entre 100 y 10000. Cuanto mayor sea el factor de compresión, menor será el tiempo de cálculo durante la fase de producción para analizar la imagen. Sin embargo, un factor de compresión demasiado alto puede conducir a un modelo demasiado tosco y, en última instancia, inadecuado para detectar los errores.
Según un segundo método, el modelo es un codificador automático. El codificador automático se materializa en una red neuronal que permite definir las características de forma no supervisada. El codificador automático consta de dos partes: un codificador y un decodificador. El codificador permite comprimir la imagen secundaria S<k,p>y el decodificador permite obtener la imagen reconstruida R<k,p>.
Según el segundo método, tenemos un codificador automático por lote de imágenes secundarias. Cada codificador automático tiene su propio factor de compresión.
Según el segundo método, los codificadores automáticos se optimizan durante la fase de aprendizaje. La optimización del codificador automático se obtiene comparando las imágenes reconstruidas y las imágenes iniciales. Esta comparación permite cuantificar las diferencias entre las imágenes iniciales y las imágenes reconstruidas y, por tanto, determinar el error cometido por el codificador. La fase de aprendizaje permite optimizar el codificador automático minimizando el error de reconstrucción de las imágenes.
Según un tercer método, el modelo se basa en el algoritmo “OMP” u “Orthogonal Matching Pursuit” . Este método consiste en buscar la mejor combinación lineal a partir de la proyección ortogonal de algunas imágenes seleccionadas de una biblioteca. El modelo se obtiene por método iterativo. Cada vez que se agrega una imagen de la biblioteca, se mejora la imagen recompuesta.
Según el tercer método, la biblioteca de imágenes se define mediante la fase de entrenamiento. Esta biblioteca se obtiene seleccionando algunas imágenes representativas del conjunto de las imágenes de la fase de aprendizaje.
Cálculo de la imagen reconstruida a partir del modelo de compresión-descompresión
En la fase de producción, cada imagen primaria A<k>del objeto inspeccionado se reposiciona recurriendo a los procedimientos descritos anteriormente y luego se divide en P<k>imágenes secundarias S<k,p>. Cada imagen secundaria S<k,p>es objeto de una operación de reconstrucción digital con su modelo definido en la fase de aprendizaje. Por lo tanto, al final de la operación de reconstrucción, tenemos una imagen reconstruida R<k,p>por imagen secundaria S<k,p>.
La operación de reconstrucción de cada imagen secundaria S<k,p>con un modelo F<k,p>con factor de compresión Q<k,p>permite tener tiempos de cálculo muy reducidos. El factor de compresión Q<k,p>está comprendido entre 5 y 500 000 y preferiblemente entre 10 y 10000.
Según el método PCA, que también es el método preferido, la imagen secundaria S<k,p>se transforma previamente en vector. A continuación, este vector se proyecta en la base de vectores propios gracias a la función F<k,p>definida en el aprendizaje. Entonces obtenemos la imagen reconstruida R<k,p>transformando el vector obtenido en una imagen.
Según el segundo método, la recomposición de la imagen secundaria la realiza el codificador automático, cuyos parámetros fueron definidos en la fase de aprendizaje. La imagen secundaria S<k,p>es procesada por el codificador automático para obtener la imagen reconstruida R<k,p>.
Según el tercer método, la imagen secundaria se reconstruye con el algoritmo OMP, u Othogonal Matching Pursuit, cuyos parámetros fueron definidos durante la fase de aprendizaje.
Cálculo del error de reconstrucción de cada imagen secundaria
El error de reconstrucción procede de la comparación entre la imagen secundaria S<k,p>y la imagen reconstruida R<k,p>.
Un método utilizado para calcular el error consiste en medir la distancia entre la imagen secundaria S<k,p>y la imagen reconstruida R<k,p>. El método preferido utilizado para calcular el error de reconstrucción es la distancia euclidiana o norma 2. Este método considera la raíz cuadrada de la suma de los cuadrados de los errores.
Un método alternativo para calcular el error consiste en utilizar la distancia de Minkowski o distancia p, que es una generalización de la distancia euclidiana. Este método considera la raíz p<-ésima>de la suma de los valores absolutos de los errores elevados a la potencia p. Este método permite dar más peso a las diferencias significativas eligiendo p mayor que 2.
Otro método alternativo es la norma 3 o método de Chebycheff. Este método considera el valor absoluto máximo de los errores.
Cálculo de la o las puntuaciones
El valor de las o las puntuaciones del objeto se obtiene del error de reconstrucción de cada imagen secundaria.
Un método preferido consiste en asignar a la puntuación el valor máximo de los errores de reconstrucción.
Un método alternativo consiste en calcular el valor de la puntuación calculando la media de los errores de reconstrucción.
Otro método alternativo consiste en calcular una media ponderada de los errores de reconstrucción. La media ponderada puede resultar útil cuando la criticidad de los defectos no es idéntica en todas las áreas del objeto.
Otro método consiste en utilizar la distancia euclidiana o la norma 2.
Otro método consiste en utilizar la distancia p.
Otro método consiste en utilizar la distancia de Chebycheff o norma 3.
Por supuesto, son posibles otros métodos equivalentes en el contexto de la presente invención.
Una vez calculadas la o las puntuaciones, sus valores se utilizan para determinar si el producto en cuestión cumple o no con las condiciones de calidad deseadas. En caso afirmativo, se mantiene en la producción y, en caso contrario, se marca como defectuoso o se retira de producción, en función de la etapa de producción alcanzada. Por ejemplo, si los productos están individualizados, se puede retirar físicamente del proceso de fabricación. Si no está individualizado, se puede marcar física o informáticamente para retirarlo posteriormente.
Por supuesto, el control de calidad según la presente solicitud puede implementarse ya sea de forma única en el proceso de fabricación (preferiblemente al final de la producción), o bien en varios momentos elegidos apropiadamente para evitar la fabricación completa de objetos que ya podrían considerarse defectuosos anteriormente en el proceso de fabricación, por ejemplo, antes de pasos de larga duración o que implican medios costosos. Al eliminar estos objetos en una fase más temprana del proceso de fabricación, podemos optimizar este último en términos de tiempo y coste.
Los diversos métodos pueden elegirse de forma fija en un proceso de fabricación completo del objeto (es decir, que se utiliza el mismo método durante todo el proceso de fabricación del producto) o pueden combinarse si se realizan varios controles de calidad sucesivamente. Luego podremos elegir el método o métodos más adecuados para realizar el control.
En la presente solicitud, por supuesto, debe entenderse que el procedimiento se implementa en una máquina de producción que puede tener una cadencia elevada (p. ej., de al menos 100 productos por minuto). Si bien en los ejemplos se ha empleado el singular para definir un objeto en producción, lo ha sido por razones de simplicidad. De hecho, el procedimiento se aplica a objetos sucesivos en producción: por lo tanto, el procedimiento es iterativo y repetitivo en cada objeto sucesivo en producción y el control de calidad se lleva a cabo en todos los objetos sucesivos.
Las realizaciones descritas son a título de ejemplos ilustrativos y no deben considerarse limitativas. Otras realizaciones pueden recurrir a medios equivalentes a los descritos, por ejemplo. Las realizaciones también se pueden combinar entre sí en función de las circunstancias, o los medios y/o los pasos de procedimiento utilizados en una realización se pueden utilizar en otra realización de la invención.
Claims (20)
1. Procedimiento de fabricación de objetos, como tubos o envases, que comprende al menos un control de calidad integrado en el procedimiento de fabricación, realizado durante la producción y de forma continua,
comprendiendo dicho control de calidad una fase de aprendizaje y una fase de producción,
comprendiendo dicha fase de aprendizaje al menos los siguientes pasos:
-) producción de N objetos considerados aceptables;
-) toma de al menos una imagen primaria (A<k>) de referencia de cada uno de los N objetos;
-) división de cada imagen primaria (A<k>) de referencia en (P<k>) imágenes secundarias (S<k,p>) de referencia;
-) agrupamiento de las imágenes secundarias de referencia correspondientes en lotes de N imágenes;
-) determinación de un modelo de compresión-descompresión (F<k,p>) con un factor de compresión (Q<k,p>) por lote,
y comprendiendo dicha fase de producción al menos los siguientes pasos:
-) toma de al menos una imagen primaria de al menos un objeto en producción;
-) división de cada imagen primaria en imágenes secundarias (S<k,p>);
-) aplicación del modelo de compresión-descompresión y del factor de compresión definidos en la fase de aprendizaje a cada imagen secundaria (S<k,p>) para formar una imagen secundaria reconstruida (R<k,p>);
-) cálculo del error de reconstrucción de cada imagen secundaria reconstruida R<k,p>;
-) asignación de una o más puntuaciones por objeto basándose en los errores de reconstrucción;
-) determinación de si el objeto producido pasa con éxito o no el control de calidad basándose en la o las puntuaciones asignadas.
2. Procedimiento según la reivindicación 1, en el que se realiza un análisis múltiple sobre al menos una de las imágenes primarias tomadas inicialmente, dando lugar dicho análisis múltiple a imágenes primarias "hijas" que se utilizan en lugar de la imagen tomada inicialmente de la que se originan.
3. Procedimiento según la reivindicación 1 o 2, en el que, después del paso de toma de al menos una imagen primaria, se realiza un reposicionamiento de cada imagen primaria.
4. Procedimiento según una de las reivindicaciones anteriores, en el que se procesa cada imagen primaria y el procesamiento utiliza un filtro y/o la detección de contornos y/o la aplicación de máscaras para ocultar determinadas áreas de la imagen.
5. Procedimiento según una de las reivindicaciones anteriores, en el que el factor de compresión está comprendido entre 5 y 500000, preferentemente entre 100 y 10000.
6. Procedimiento según una de las reivindicaciones anteriores, en el que la función de compresión-descompresión se determina a partir de un análisis de componentes principales ("PCA").
7. Procedimiento según una de las reivindicaciones anteriores, en el que la función de compresión-descompresión se determinada mediante el algoritmo llamado "OMP" (Orthogonal Matching Pursuit).
8. Procedimiento según una de las reivindicaciones anteriores, en el que el error de reconstrucción se calcula mediante la distancia euclidiana y/o la distancia de Minkowski y/o el método de Chebycheff.
9. Procedimiento según una de las reivindicaciones anteriores, en el que la puntuación corresponde al valor máximo de los errores de reconstrucción y/o a la media de los errores de reconstrucción y/o a la media ponderada de los errores de reconstrucción y/o a la distancia euclidiana y /o la distancia p y/o la distancia de Chebycheff.
10. Procedimiento según una de las reivindicaciones anteriores, en el que N es igual a al menos 10.
11. Procedimiento según una de las reivindicaciones anteriores, en el que se toman al menos dos imágenes primarias, siendo las imágenes primarias de idéntico tamaño o de diferente tamaño.
12. Procedimiento según una de las reivindicaciones anteriores, en el que la división de cada imagen primaria se realiza en P imágenes secundarias de idéntico tamaño o de diferente tamaño.
13. Procedimiento según una de las reivindicaciones anteriores, en el que las imágenes secundarias S se yuxtaponen con superposición y/o sin superposición.
14. Procedimiento según una de las reivindicaciones anteriores, en el que las imágenes secundarias son de idéntico tamaño o de diferente tamaño.
15. Procedimiento según una de las reivindicaciones anteriores, realizándose dicho control de calidad integrado al menos una vez en dicho procedimiento de fabricación.
16. Procedimiento según una de las reivindicaciones anteriores, en el que la fase de aprendizaje es iterativa y se repite durante la producción con objetos en producción para tener en cuenta una diferencia que no se considera un defecto.
17. Procedimiento según una de las reivindicaciones anteriores, en el que el reposicionamiento consiste en considerar un número predeterminado de puntos de interés y de descriptores distribuidos sobre la imagen y en determinar el desplazamiento relativo entre la imagen de referencia y la imagen primaria que minimice el error de superposición en los puntos de interés, y los puntos de interés se distribuyen aleatoriamente en la imagen o en un área predefinida de la imagen.
18. Procedimiento según la reivindicación 17, en el que la posición de los puntos de interés está predefinida, de forma arbitraria o no.
19. Procedimiento según una de las reivindicaciones 17 o 18, en el que los puntos de interés se detectan mediante uno de los métodos llamados "SIFT", o "SURF", o "FAST" u "ORB"; y los descriptores se definen mediante uno de los métodos "SIFT", o "SURF", o "BRI<e>F" u "ORB".
20. Procedimiento según una de las reivindicaciones 17 a 19, en el que la imagen se reposiciona según al menos un eje y/o la imagen se reposiciona en rotación alrededor del eje perpendicular al plano formado por la imagen y/o la imagen se reposiciona mediante la combinación de un movimiento de traslación y de rotación.
Applications Claiming Priority (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| EP19203285.2A EP3809366A1 (fr) | 2019-10-15 | 2019-10-15 | Procédé de fabrication |
| PCT/IB2020/057678 WO2021074708A1 (fr) | 2019-10-15 | 2020-08-14 | Procédé de fabrication |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| ES2963608T3 true ES2963608T3 (es) | 2024-04-01 |
Family
ID=68281051
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| ES20768702T Active ES2963608T3 (es) | 2019-10-15 | 2020-08-14 | Procedimiento de fabricación |
Country Status (11)
| Country | Link |
|---|---|
| US (1) | US20220230301A1 (es) |
| EP (2) | EP3809366A1 (es) |
| JP (1) | JP2022552080A (es) |
| KR (1) | KR20220084303A (es) |
| CN (1) | CN114651276A (es) |
| BR (1) | BR112022004464A2 (es) |
| CA (1) | CA3150634A1 (es) |
| ES (1) | ES2963608T3 (es) |
| MX (1) | MX2022003804A (es) |
| PL (1) | PL4046129T3 (es) |
| WO (1) | WO2021074708A1 (es) |
Families Citing this family (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| KR20210073561A (ko) * | 2018-10-15 | 2021-06-18 | 쓰리엠 이노베이티브 프로퍼티즈 컴파니 | 제조 필름으로부터의 임의 형상의 시트 파트들에 대한 자동화된 검사 |
| CN113313466A (zh) * | 2021-06-01 | 2021-08-27 | 梁波 | 一种基于表征信息的公路隧道光环境构建系统和方法 |
| US12482085B2 (en) * | 2021-11-15 | 2025-11-25 | Advanced Vision Technology (A.V.T.) Ltd. | Method and process for automated auditing of inline quality inspection |
| CN119682159B (zh) * | 2025-02-21 | 2025-04-29 | 四川瀚海精密制造有限公司 | 一种注塑模具腔内状态监测方法、系统、设备及介质 |
Family Cites Families (21)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US6711293B1 (en) | 1999-03-08 | 2004-03-23 | The University Of British Columbia | Method and apparatus for identifying scale invariant features in an image and use of same for locating an object in an image |
| DE602006014803D1 (de) | 2006-04-28 | 2010-07-22 | Eidgenoess Tech Hochschule | Robuster Detektor und Deskriptor für einen Interessenspunkt |
| ITTO20060556A1 (it) * | 2006-07-27 | 2008-01-28 | Videotec Spa | Metodo di rilevazione eventi e sistema di video sorveglianza utilizzante il metodo |
| EP2486517A4 (en) * | 2009-10-05 | 2014-06-11 | Icvt Ltd | DEVICE AND METHOD FOR RECOMPRIATING DIGITAL IMAGES |
| US9527115B2 (en) | 2010-03-13 | 2016-12-27 | Carnegie Mellon University | Computer vision and machine learning software for grading and sorting plants |
| GB2491473B (en) | 2011-05-31 | 2013-08-14 | Pointgrab Ltd | Computer vision based control of a device using machine learning |
| DE102012215114B4 (de) * | 2012-08-24 | 2015-03-19 | Koenig & Bauer Aktiengesellschaft | Verfahren zur Inspektion eines Druckerzeugnisses |
| DE102013205832B4 (de) * | 2013-04-03 | 2025-04-30 | Siemens Healthineers Ag | Verfahren und Bilddatenerzeugungseinrichtung zur Erzeugung von Bilddaten eines sich bewegenden Objekts, Magnetresonanzanlage und Computerprogrammprodukt |
| US10710119B2 (en) * | 2016-07-18 | 2020-07-14 | UHV Technologies, Inc. | Material sorting using a vision system |
| WO2017052592A1 (en) | 2015-09-25 | 2017-03-30 | Albert Ky | Magnetic friction and viscous cylinder-piston resistance portable exercise equipment |
| TR201613058A2 (tr) * | 2015-10-07 | 2017-04-21 | Ford Global Tech Llc | Bi̇r otomati̇k üreti̇m hatti i̇çi̇n görüntüleme si̇stemi̇ |
| WO2018112514A1 (en) | 2016-12-23 | 2018-06-28 | Queensland University Of Technology | Deep learning systems and methods for use in computer vision |
| US10593033B2 (en) * | 2017-06-27 | 2020-03-17 | Nec Corporation | Reconstructor and contrastor for medical anomaly detection |
| WO2019107614A1 (ko) * | 2017-11-30 | 2019-06-06 | 전자부품연구원 | 제조 공정에서 딥러닝을 활용한 머신 비전 기반 품질검사 방법 및 시스템 |
| JP6757378B2 (ja) * | 2018-08-28 | 2020-09-16 | 株式会社モルフォ | 画像識別装置、画像識別方法及び画像識別プログラム |
| EP3705962A1 (de) * | 2019-03-07 | 2020-09-09 | Siemens Aktiengesellschaft | Verfahren und system zur qualitätskontrolle in der industriellen fertigung |
| DE102019110721B4 (de) * | 2019-04-25 | 2025-08-07 | Carl Zeiss Industrielle Messtechnik Gmbh | Workflow zum trainieren eines klassifikators für die qualitätsprüfung in der messtechnik |
| IL268612A (en) * | 2019-08-08 | 2021-03-01 | HYATT Yonatan | Using an HDR image in a visual inspection process |
| WO2021030322A1 (en) * | 2019-08-12 | 2021-02-18 | Lm3 Technologies, Inc. | System and method of object detection using ai deep learning models |
| JP7568727B2 (ja) * | 2019-09-30 | 2024-10-16 | ムサシ エーアイ ノース アメリカ インコーポレイテッド | Ai外観検査のためのシステム及び方法 |
| WO2022190203A1 (ja) * | 2021-03-09 | 2022-09-15 | 日本電気株式会社 | 情報処理システム、情報処理装置、情報処理方法、および、記憶媒体 |
-
2019
- 2019-10-15 EP EP19203285.2A patent/EP3809366A1/fr not_active Withdrawn
-
2020
- 2020-08-14 KR KR1020227014220A patent/KR20220084303A/ko not_active Withdrawn
- 2020-08-14 BR BR112022004464A patent/BR112022004464A2/pt not_active IP Right Cessation
- 2020-08-14 EP EP20768702.1A patent/EP4046129B1/fr active Active
- 2020-08-14 CN CN202080074550.1A patent/CN114651276A/zh active Pending
- 2020-08-14 MX MX2022003804A patent/MX2022003804A/es unknown
- 2020-08-14 WO PCT/IB2020/057678 patent/WO2021074708A1/fr not_active Ceased
- 2020-08-14 ES ES20768702T patent/ES2963608T3/es active Active
- 2020-08-14 JP JP2022516069A patent/JP2022552080A/ja not_active Withdrawn
- 2020-08-14 CA CA3150634A patent/CA3150634A1/fr active Pending
- 2020-08-14 PL PL20768702.1T patent/PL4046129T3/pl unknown
-
2022
- 2022-04-05 US US17/713,254 patent/US20220230301A1/en not_active Abandoned
Also Published As
| Publication number | Publication date |
|---|---|
| EP4046129C0 (fr) | 2023-10-04 |
| CA3150634A1 (fr) | 2021-04-22 |
| EP4046129A1 (fr) | 2022-08-24 |
| PL4046129T3 (pl) | 2024-01-29 |
| WO2021074708A1 (fr) | 2021-04-22 |
| MX2022003804A (es) | 2022-04-29 |
| BR112022004464A2 (pt) | 2022-05-31 |
| KR20220084303A (ko) | 2022-06-21 |
| EP4046129B1 (fr) | 2023-10-04 |
| US20220230301A1 (en) | 2022-07-21 |
| EP3809366A1 (fr) | 2021-04-21 |
| JP2022552080A (ja) | 2022-12-15 |
| CN114651276A (zh) | 2022-06-21 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| ES2963608T3 (es) | Procedimiento de fabricación | |
| US8103376B2 (en) | System and method for the on-machine 2-D contour measurement | |
| CN107228860B (zh) | 一种基于图像旋转周期特性的齿轮缺陷检测方法 | |
| CN106803244B (zh) | 缺陷识别方法及系统 | |
| US5818443A (en) | Single step coarse registration and inspection of circular objects | |
| JP4679073B2 (ja) | タイヤ凹凸図形の検査方法、および、タイヤ凹凸図形検査装置 | |
| CN119887745A (zh) | 精密结构件机器视觉动态缺陷检测方法及装置 | |
| CN103886597B (zh) | 一种基于边缘检测与拟合曲线聚类的圆检测方法 | |
| US12437027B2 (en) | Microscopy system and method for generating training data | |
| US20140185883A1 (en) | Analysis of the digital image of the surface of a tyre and processing of non-measurement points | |
| CN114240993A (zh) | 用于使样品载体定向的显微镜系统、方法和计算机程序 | |
| CN113971670A (zh) | 基于计算机视觉的螺纹缺陷分析方法及系统 | |
| CN118848670A (zh) | 一种基于深度学习的数控机床刀具磨损监测方法 | |
| CN118014936B (zh) | 基于多元图像信息融合的加工曲面缺陷检测方法与装置 | |
| US7302109B2 (en) | Method and system for image processing for structured light profiling of a part | |
| CN111932494A (zh) | 一种轮胎磨损程度评价方法及装置 | |
| JP6328222B2 (ja) | Tsomイメージ獲得方法及び半導体装置検査方法 | |
| CN117496058B (zh) | 一种计算机视觉驱动的光学层析重建方法及系统 | |
| CN112381948A (zh) | 一种基于语义的激光条纹中心线提取及拟合方法 | |
| CN117011320B (zh) | 基于多特征融合的芯片定位方法、装置、设备和介质 | |
| CN119693252A (zh) | 一种立体工件检测用多焦面图像融合方法及系统 | |
| CN117495938B (zh) | 一种基于图像处理的可折叠中空板生产数据提取方法 | |
| CN113096090B (zh) | 带倒角的端面间隙视觉测量方法、装置、设备及存储介质 | |
| CN114202506A (zh) | 基于标准廓形约束的激光扫描图像异常处理方法 | |
| CN119547103A (zh) | 用于进给定向部件的方法 |