[go: up one dir, main page]

ES2394821A1 - PROCEDURE FOR THE QUANTITATIVE DETERMINATION OF THE PERCENTAGE OF COOKED IN THE CAUSTIC SLEEP OF OLIVES AND PREDICTION OF THE OPTIMAL MOMENT OF COMPLETION OF THE SAME - Google Patents

PROCEDURE FOR THE QUANTITATIVE DETERMINATION OF THE PERCENTAGE OF COOKED IN THE CAUSTIC SLEEP OF OLIVES AND PREDICTION OF THE OPTIMAL MOMENT OF COMPLETION OF THE SAME Download PDF

Info

Publication number
ES2394821A1
ES2394821A1 ES201100462A ES201100462A ES2394821A1 ES 2394821 A1 ES2394821 A1 ES 2394821A1 ES 201100462 A ES201100462 A ES 201100462A ES 201100462 A ES201100462 A ES 201100462A ES 2394821 A1 ES2394821 A1 ES 2394821A1
Authority
ES
Spain
Prior art keywords
olives
percentage
completion
procedure
cooked
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
ES201100462A
Other languages
Spanish (es)
Other versions
ES2394821B2 (en
Inventor
Antonio Madueño Luna
Rafael PLEITE GUTÍERREZ
José Miguel MADUEÑO LUNA
Miriam LÓPEZ LINEROS
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Universidad de Sevilla
Original Assignee
Universidad de Sevilla
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Universidad de Sevilla filed Critical Universidad de Sevilla
Priority to ES201100462A priority Critical patent/ES2394821B2/en
Priority to PCT/ES2012/000104 priority patent/WO2012146799A1/en
Publication of ES2394821A1 publication Critical patent/ES2394821A1/en
Application granted granted Critical
Publication of ES2394821B2 publication Critical patent/ES2394821B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • AHUMAN NECESSITIES
    • A23FOODS OR FOODSTUFFS; TREATMENT THEREOF, NOT COVERED BY OTHER CLASSES
    • A23BPRESERVATION OF FOODS, FOODSTUFFS OR NON-ALCOHOLIC BEVERAGES; CHEMICAL RIPENING OF FRUIT OR VEGETABLES
    • A23B7/00Preservation of fruit or vegetables; Chemical ripening of fruit or vegetables
    • A23B7/14Preserving or ripening with chemicals not covered by group A23B7/08 or A23B7/10
    • A23B7/153Preserving or ripening with chemicals not covered by group A23B7/08 or A23B7/10 in the form of liquids or solids
    • A23B7/157Inorganic compounds
    • AHUMAN NECESSITIES
    • A23FOODS OR FOODSTUFFS; TREATMENT THEREOF, NOT COVERED BY OTHER CLASSES
    • A23BPRESERVATION OF FOODS, FOODSTUFFS OR NON-ALCOHOLIC BEVERAGES; CHEMICAL RIPENING OF FRUIT OR VEGETABLES
    • A23B2/00Preservation of foods or foodstuffs, in general
    • A23B2/003Control or safety devices for sterilisation or pasteurisation systems
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection
    • G06T2207/30128Food products

Landscapes

  • Engineering & Computer Science (AREA)
  • Chemical & Material Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Food Science & Technology (AREA)
  • Polymers & Plastics (AREA)
  • Zoology (AREA)
  • Wood Science & Technology (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Quality & Reliability (AREA)
  • Inorganic Chemistry (AREA)
  • Chemical Kinetics & Catalysis (AREA)
  • General Chemical & Material Sciences (AREA)
  • Investigating Or Analysing Materials By Optical Means (AREA)
  • Investigating Materials By The Use Of Optical Means Adapted For Particular Applications (AREA)

Abstract

La presente invención tiene por objeto un procedimiento para la determinación cuantitativa del porcentaje de cocido de muestras de aceitunas que están siendo tratadas en sosa cáustica, y predice el momento óptimo de finalización del mismo. Hace uso de aceitunas procedentes de la cata de una cocedera, que son cortadas, teñidas, secadas, y ubicadas sobre fondo oscuro, siendo su imagen capturada y digitalizada con iluminación constante. Tras un análisis por visión artificial, se obtiene el porcentaje de cocido que se lleva hasta ese momento y se predice el momento óptimo de finalización del mismo. Este procedimiento es de aplicación a cualquier variedad de aceituna (gordal, hojiblanca, manzanilla, etc.).The subject of the present invention is a method for the quantitative determination of the percentage of cooking of olive samples that are being treated in caustic soda, and predicts the optimum time of completion thereof. It makes use of olives from the tasting of a cocedera, which are cut, dyed, dried, and placed on a dark background, its image being captured and digitized with constant illumination. After an analysis by artificial vision, the percentage of cooking that is carried until that moment is obtained and the optimum moment of completion is predicted. This procedure is applicable to any variety of olives (gordal, hojiblanca, chamomile, etc.).

Description

Procedimiento para la determinación cuantitativa del porcentaje de cocido en sosa cáustica de aceitunas y predicción del momento óptimo de finalización del mismo. 5 Objeto de la invención La presente invención tiene por objeto un procedimiento para la determinación cuantitativa del porcentaje de cocido de muestras de aceitunas que están siendo tratadas en sosa cáustica y predice el momento óptimo de finalización del mismo. Hace uso de aceitunas procedentes de la cata de una cocedera, que son cortadas, 10 teñidas, secadas, y ubicadas sobre fondo oscuro, siendo su imagen capturada y digitalizada con iluminación constante. Tras un análisis por visión artificial, se obtiene el porcentaje de cocido que se lleva hasta ese momento y se predice el momento óptimo de finalización del mismo. Este procedimiento es de aplicación a cualquier variedad de aceituna (gordal, hojiblanca, manzanilla, etc.). 15 Estado de la técnica Hasta la fecha, no existen procedimientos industriales patentados como el aquí descrito, tan sólo el método tradicional, es decir, la simple inspección visual del corte de la aceituna a cargo de una persona con experiencia (maestro cocedero). 20 En la bibliografía aparecen ejemplos variados de uso de técnicas de visión artificial en agricultura, algunos de ellos relativos a la aceituna: Díaz et al. (2000) diseñaron un sistema para clasificar las aceitunas de forma automática mediante visión artificial, proceso que tradicionalmente es llevado a cabo por expertos humanos siendo así un proceso lento y muy caro. Para alcanzar 25 este objetivo, expertos humanos clasificaban diferentes lotes de aceitunas en cuatro categorías para extraer los parámetros relacionados con cada clase. Una vez caracterizadas las aceitunas procesadas, se implementó y probó un algoritmo para ordenar automáticamente las aceitunas haciendo uso de diferentes resoluciones con el objeto de estudiar el efecto de la misma sobre la efectividad 30 clasificatoria. Kondo et al. (2000) analizan el contenido de azúcar y acidez de la naranja Iyokan usando un sistema de visión artificial. Imágenes de 30 frutos de naranja Iyokan fueron adquiridas por una cámara de televisión en color. Se extrajeron de las imágenes características como el color del fruto, la forma y rugosidad de la 35 superficie de la fruta que junto al peso se introdujeron a las capas de entrada de una red neuronal, mientras que el contenido de azúcar o el pH de la fruta los utilizaron como los valores de las capas de salida. Los autores encontraron diversos modelos de redes neuronales capaces de predecir el contenido de azúcar o el pH a partir de la apariencia externa de las frutas con una exactitud razonable. Aleixos et al. (2002) analizan la inspección y clasificación automática en cítricos. 5 Este trabajo incluye el desarrollo de una cámara multiespectral, que es capaz de adquirir imágenes en el espectro visible e infrarrojo cercano de la misma escena, el diseño de algoritmos específicos y su aplicación en un hardware basado en dos (OSP) que trabajan en paralelo, lo que permite dividir las tareas de inspección en los diferentes procesadores. El ahorro de tiempo de procesamiento, permite no 10 sólo determinar tamaño y clasificar por colores, sino también detectar defectos en la superficie de la piel utilizando longitudes de onda que están fuera del espectro visible. Hahn, F. (2002) desarrolla un sensor 'Atomato', para la detección de los tomates verdes que nunca se volverán rojos. Para ello hace uso de un análisis con el fin de 15 obtener el mejor discriminante de longitudes de onda. Las bandas espectrales obtenidas eran utilizadas por una cámara multi-espectral para la predicción de los tomates que nunca van a madurar con una precisión de más del 85%. Blasco, J., Aleixos, N. & Moltó, E. (2003) estiman la calidad de naranjas, melocotones y manzanas (tamaño, color, y detección de defectos externos) 20 usando un procedimiento de segmentación basado en el análisis discriminante Bayesiano. La capacidad de repetición en la detección de defectos y estimación del tamaño obtenida era del 86 y 93% respectivamente. La precisión y la repetibilidad del sistema se encontraron similares a los de clasificación manual. Díaz et al. (2004) realizan una caracterización colorimétrica mediante análisis de 25 imagen de los defectos más comunes presentes en la superficie de las aceitunas de mesa usando algoritmos de aprendizaje entrenados con la información procedente de personas especializadas. Aplicaron tres diferentes algoritmos para clasificar las aceitunas en cuatro categorías de calidad. Los resultados muestran que una red neuronal con una capa oculta es capaz de clasificar las aceitunas con 30 una precisión de más del 90%. Brosnan, T., Sun, D.W., 2004 presenta los elementos significativos de un sistema de visión por ordenador y hace hincapié en los aspectos importantes de la técnica de procesamiento de imágenes, junto con una revisión de los desarrollos más importantes en la industria alimentaria. 35 Du et al, (2004) revisan los avances en el aprendizaje de técnicas para la evaluación de calidad de los alimentos utilizando la visión por ordenador, incluyendo redes neuronales artificiales, aprendizaje estadístico, la lógica difusa, algoritmos genéticos, y árboles de decisión. Concluyendo que las Redes Neuronales artificiales (ANN) y el aprendizaje estadístico (SL) siguen siendo los principales métodos de aprendizaje en el campo de visión por ordenador para la 5 evaluación de calidad de los alimentos. Entre las aplicaciones de algoritmos de aprendizaje en la visión por ordenador para la evaluación de calidad de los alimentos, la mayoría de ellos son para la clasificación y la predicción, sin embargo, también hay algunas para la segmentación de imágenes y selección de características. 10 Kavdir, l., Guyer, O.E., (2004) clasifican las manzanas Empire y Golden Delicious según sus condiciones de calidad en superficie usando Redes Neuronales Backpropagation (BPNN) y clasificadores estadísticos, como árbol de decisión (DT), vecino más próximo K (K-NN) Y Bayesiano con las características texturales (sólo con el clasificador BPNN) extraído por medio de todos los píxeles de una 15 imagen de la manzana entera. Leemans, V. y Oestain, M. F. (2004) presentan un método de clasificación jerárquica aplicado a las manzanas Jonagold usando varias imágenes que cubren toda la superficie de los frutos adquiridas con una máquina de clasificación de prototipo. Estas imágenes fueron segmentadas y extraídas las características de 20 los defectos. Durante el procedimiento de aprendizaje, los objetos fueron clasificados en grupos según k-medias. Las probabilidades de clasificación de los objetos fueron resumidos y sobre esta base, los frutos fueron clasificadas mediante un análisis discriminante cuadrático con una tasa del 73%. Meh et al. (2004) hacen uso de un sistema de imágenes hiperespectral de alta 25 resolución espacial (0,5-1,0 mm) como una herramienta para la selección de mejores métodos multiespectrales para detectar alimentos contaminados y defectuosos así como de productos agrícolas, concretamente para la detección de defectos y I o contaminaciones en la superficie de manzanas de las variedades Red Delicious, Golden Delicious, Gala y Fuji. 30 Sun, O. W., y Ou, C. J. (2004) describen un algoritmo para la segmentación de imágenes utilizando crecimiento y la fusión en las mismas. Consta de cuatro pasos principales: inicialización de elementos, fusión de elementos, fusión de subregiones, y modificación de bordes. El algoritmo fue utilizado con éxito para segmentar muchos tipos de imágenes de alimentos complejos, incluyendo pizza, 35 manzana, carne de cerdo y patatas. Bennedsen, B.S. y Peterson, D.L., (2005) presentan el desarrollo y ensayo de una máquina de de visión artificial para la clasificación de las manzanas a partir de los de defectos de su superficie, incluyendo los golpes. Las imágenes para la detección de defectos fueron adquiridas a través de dos filtros de luz a 740 nm y 5 950 nm, respectivamente. Los defectos fueron detectados utilizando una combinación de tres rutinas diferentes. La capacidad de las rutinas para encontrar defectos individuales y medir el área varió desde 77 hasta 91 % en el número de defectos detectados, y de 78 a 92,7% de la superficie total de defectos. Kleynen et al. (2005) proponen un método para clasificar las manzanas Jonagold 10 basado en la presencia de defectos en su superficie, desarrollando para ello un sistema de visión multiespectral con cuatro bandas de longitud de onda en el rango visible I NIR. Adquirieron imágenes multi-espectrales de frutos sanos y defectuosos para cubrir toda la variabilidad de color de esta variedad de manzana bicolor. Los defectos los agruparon en cuatro categorías: defectos leves, defectos 15 más graves, los defectos que conducen a la desestimación de las frutas y contusiones recientes. La caracterización de los defectos en la segmentación consistió en un procedimiento de clasificación de píxeles basado en el teorema de Bayes y modelos no para métricos del tejido sano y defectuoso. Cordero S, L. Lleó et al. (2006) proponen y comparan dos clasificaciones 20 multiespectrales para caracterizar la madurez de los melocotones de pulpa de color rojo suave ('Kingcrest', 'Rubyrich' y 'Richlady' N = 260), sobre la base de imágenes sobre el R (rojo) y RlIR obtenidas con una cámara de tres CCO (800 nm, 675 y 450 nm). Los histogramas de l/IR permitieron corregir el efecto 3D y la reflectancia de la luz. 25 J. Blasco et al. (2007) presentan un sistema de visión artificial para la detección de defectos en la piel de cítricos mediante el uso de un algoritmo de segmentación de regiones orientadas. El algoritmo se probó en diferentes variedades de naranjas y mandarinas defectuosas logrando detectar el 95% de los defectos en estudio. 30 KiIi~ et al. (2007) desarrollaron un sistema de visión artificial para el reconocimiento de alubias basándose en el tamaño y color de las mismas mediante el uso de Hardware y Software (Matlab). El sistema fue capaz de clasificar correctamente el 90.6% de las alubias estudiadas Riquelme et al. (2008) teniendo en cuenta que la apariencia externa de la piel de 35 una aceituna es el factor más decisivo en la determinación de su calidad como fruto, tratan de establecer un modelo jerárquico basado en las características 5 extraídas a partir de imágenes de las aceitunas que reflejen sus defectos externos. Los porcentajes de clasificación correcta varían considerablemente en función de las categorías, que van desde 80 hasta 100% durante la calibración y de 38 a 100% durante la validación. Descripción de las figuras Figura 1, diagrama de bloques de funcionamiento del procedimiento Se aprecia los diferentes bloques que conlleva la aplicación de este método: (1) aceitunas procedentes de la cata de una cocedera, (2) teñido y secado de la 10 aceituna cortada, (3) ubicación de las aceitunas teñidas y secadas sobre fondo oscuro, (4) captura y digitalización de la imagen con iluminación constante, (5) análisis y obtención del tiempo de cocido, (6) predicción temporal para un porcentaje de cocido dado. 15 Figura 2, imagen preferente de aceituna tras procesado (1) Fondo oscuro contrastante con la aceituna 20 (2) Pulpa cocida de la aceituna con NaOH (3) Pulpa y hueso sin ataque por NaOH Descripción de la invención Para determinar el porcentaje de cocido en NaOH de las aceitunas, partimos de una cata de las mismas procedentes de la cocedera y se efectúa un corte de las mismas de forma longitudinal a ras del hueso, seguidamente se aplica una tintura 25 sensible a la presencia de NaOH, se secan las aceitunas se ubican formando una matriz de 4x4 o 4x5 aceitunas y se captura una imagen de las mismas sobre un fondo oscuro con unos niveles de iluminación constantes e idénticos para todas las repeticiones que se lleven a cabo en el procedimiento. De la imagen obtenida segmentaremos: fondo (1), pulpa atacada por NaOH (2) y pulpa y hueso sin atacar 30 por NaOH (3). A partir de aquí determinamos que porcentaje del total de la aceituna ya ha sido cocido para esa muestra, quedando almacenado el resultado en una base de datos. Con los datos de las catas sucesivas ajustaremos la tendencia y así podremos predecir el momento óptimo de finalización del cocido. 35 Modo preferente de realización de la invención a) Fruto: A las muestras de aceitunas cortadas manualmente, se les aplica un marcador de teñido sensible al NaOH, se dejan secar y se disponen sobre un soporte de fondo 5 oscuro (1) (negro, azul). Este procedimiento nos asegura un mayor contraste entre el fondo, la tintura que se deposita en la zona atacada por el NaOH (2) y la zona aún intacta del centro del fruto (3). b) Sistema de imagen: La imagen es adquirida empleando cámaras (CCO, CMOS), o un escáner que 10 permitan procesar las imágenes siempre en idénticas condiciones de iluminación. Las imágenes obtenidas son digitalizadas y enviadas a un P.C. para ser analizadas o alternativamente a un sistema autónomo basado en FPGA, OSP o Microcontrolador. e) Procesado de imagen: 15 1.-Se realiza un segmentado de la imagen en los tres planos de color RGB. 2.-Usando la información contenida en el plano R, separamos el fondo oscuro (negro, azul), del contorno de la aceituna. 3.-Usando la información contenida en el plano verde diferenciamos la parte penetrada por el NaOH de la que aún está intacta. 20 4.-Con la información hasta ahora obtenida, determinamos la porción que esta cocida del total de la aceituna. d) Predicción del momento óptimo de finalización del cocido: Mediante ajuste no lineal o con el empleo de una red neuronal entrenada 25 cuantificamos para un porcentaje de cocido dado el momento en el que se va a alcanzar: 1.-0eterminamos varios valores de porcentaje de cocido para tiempos cortos (de 2 a 4 horas) en los que sabemos que no se ha alcanzado aún el valor óptimo de cocido. 30 2.-A partir de ellos y aplicando las condiciones iniciales del problema (en el instante inicial el porcentaje de cocido es 0% y para un tiempo muy largo ( más de 15 horas), el porcentaje total de cocido es del 100%), determinamos el momento óptimo de cocido o para un porcentaje solicitado (p.e. 90-95%), en qué momento se va a alcanzar. 35 Procedure for the quantitative determination of the percentage of cooked in caustic soda of olives and prediction of the optimum moment of completion of the same. OBJECT OF THE INVENTION The subject of the present invention is a method for the quantitative determination of the percentage of cooking of samples of olives that are being treated in caustic soda and predicts the optimum time of completion thereof. It uses olives from the tasting of a cocedera, which are cut, dyed, dried, and located on a dark background, its image being captured and digitized with constant illumination. After an analysis by artificial vision, the percentage of cooking that is carried until that moment is obtained and the optimum moment of completion is predicted. This procedure is applicable to any variety of olives (gordal, hojiblanca, chamomile, etc.). 15 State of the art To date, there are no patented industrial procedures such as the one described here, only the traditional method, that is, the simple visual inspection of the cut of the olive by an experienced person (master cook). 20 In the bibliography there are varied examples of the use of artificial vision techniques in agriculture, some of them related to olives: Díaz et al. (2000) designed a system to classify olives automatically by artificial vision, a process that is traditionally carried out by human experts, thus being a slow and very expensive process. To reach this goal, human experts classified different batches of olives into four categories to extract the parameters related to each class. Once the processed olives were characterized, an algorithm was implemented and tested to automatically sort the olives making use of different resolutions in order to study the effect of the olives on the effectiveness of the classification. Kondo et al. (2000) analyze the sugar and acid content of the Iyokan orange using an artificial vision system. Images of 30 Iyokan orange fruits were purchased by a color television camera. Images were extracted from the characteristics such as the color of the fruit, the shape and roughness of the surface of the fruit that together with the weight were introduced to the input layers of a neural network, while the sugar content or the pH of the fruit used as the values of the output layers. The authors found several models of neural networks capable of predicting sugar content or pH from the external appearance of fruits with reasonable accuracy. Aleixos et al. (2002) analyze the inspection and automatic classification in citrus. 5 This work includes the development of a multispectral camera, which is capable of acquiring images in the visible and near infrared spectrum of the same scene, the design of specific algorithms and their application in a hardware based on two (OSP) that work in parallel , which allows to divide the inspection tasks in the different processors. The saving of processing time allows not only to determine size and classify by colors, but also to detect defects in the surface of the skin using wavelengths that are outside the visible spectrum. Hahn, F. (2002) develops an 'Atomato' sensor, for the detection of green tomatoes that will never turn red. To do this, it uses an analysis in order to obtain the best wavelength discriminant. The obtained spectral bands were used by a multi-spectral camera for the prediction of tomatoes that will never mature with an accuracy of more than 85%. Blasco, J., Aleixos, N. & Moltó, E. (2003) estimate the quality of oranges, peaches and apples (size, color, and detection of external defects) 20 using a segmentation procedure based on Bayesian discriminant analysis. The repeatability in the detection of defects and estimation of the obtained size was 86 and 93% respectively. The accuracy and repeatability of the system were similar to those of manual classification. Díaz et al. (2004) perform a colorimetric characterization by means of image analysis of the most common defects present on the surface of table olives using learning algorithms trained with information from specialized people. They applied three different algorithms to classify the olives into four quality categories. The results show that a neural network with a hidden layer is able to classify the olives with an accuracy of more than 90%. Brosnan, T., Sun, D.W., 2004 presents the significant elements of a computer vision system and emphasizes the important aspects of the image processing technique, together with a review of the most important developments in the food industry. 35 Du et al, (2004) review advances in learning techniques for the evaluation of food quality using computer vision, including artificial neural networks, statistical learning, fuzzy logic, genetic algorithms, and decision trees. Concluding that artificial neural networks (ANN) and statistical learning (SL) are still the main methods of learning in the field of computer vision for the 5 evaluation of food quality. Among the applications of learning algorithms in computer vision for the evaluation of food quality, most of them are for classification and prediction, however, there are also some for the segmentation of images and selection of characteristics. 10 Kavdir, l., Guyer, OE, (2004) classify Empire and Golden Delicious apples according to their surface quality conditions using Backpropagation Neural Networks (BPNN) and statistical classifiers, as decision tree (DT), nearest neighbor K (K-NN) And Bayesian with the textural characteristics (only with the BPNN classifier) extracted by means of all the pixels of an image of the whole apple. Leemans, V. and Oestain, M. F. (2004) present a hierarchical classification method applied to Jonagold apples using several images that cover the entire surface of the fruits acquired with a prototype classification machine. These images were segmented and extracted the characteristics of 20 defects. During the learning process, the objects were classified into groups according to k-means. The probabilities of classification of the objects were summarized and on this basis, the fruits were classified by a quadratic discriminant analysis with a rate of 73%. Meh et al. (2004) make use of a high spatial resolution hyperspectral imaging system (0.5-1.0 mm) as a tool for the selection of better multispectral methods to detect contaminated and defective foods as well as agricultural products, specifically for the detection of defects and I or surface contamination of apples of the Red Delicious, Golden Delicious, Gala and Fuji varieties. 30 Sun, O. W., and Ou, C. J. (2004) describe an algorithm for image segmentation using growth and fusion therein. It consists of four main steps: initialization of elements, fusion of elements, fusion of subregions, and modification of edges. The algorithm was used successfully to segment many types of complex food images, including pizza, apple, pork and potatoes. Bennedsen, B.S. and Peterson, D.L., (2005) present the development and testing of an artificial vision machine for the classification of apples from the defects of their surface, including bumps. The images for the detection of defects were acquired through two light filters at 740 nm and 5 950 nm, respectively. The defects were detected using a combination of three different routines. The ability of routines to find individual defects and measure area varied from 77 to 91% in the number of defects detected, and from 78 to 92.7% of the total defects surface. Kleynen et al. (2005) propose a method for classifying Jonagold 10 apples based on the presence of surface defects, developing a multispectral vision system with four wavelength bands in the I NIR visible range. They acquired multi-spectral images of healthy and defective fruits to cover all the color variability of this two-colored apple variety. The defects grouped them into four categories: minor defects, more serious defects, defects that lead to the rejection of fruits and recent bruises. The characterization of the segmentation defects consisted of a pixel classification procedure based on the Bayes theorem and non-metric models of healthy and defective tissue. Lamb S, L. Lleó et al. (2006) propose and compare two multispectral classifications to characterize the maturity of soft red pulp peaches ('Kingcrest', 'Rubyrich' and 'Richlady' N = 260), based on images on the R (red ) and RlIR obtained with a three CCO camera (800 nm, 675 and 450 nm). The histograms of l / IR allowed to correct the 3D effect and the reflectance of the light. 25 J. Blasco et al. (2007) present an artificial vision system for the detection of citrus skin defects through the use of a segmentation algorithm of oriented regions. The algorithm was tested on different varieties of defective oranges and mandarins, detecting 95% of the defects under study. 30 KiIi ~ et al. (2007) developed an artificial vision system for the recognition of beans based on the size and color of beans through the use of Hardware and Software (Matlab). The system was able to correctly classify 90.6% of the beans studied Riquelme et al. (2008) taking into account that the external appearance of the skin of an olive is the most decisive factor in determining its quality as a fruit, trying to establish a hierarchical model based on the characteristics 5 extracted from images of the olives that reflect their external defects. The correct classification percentages vary considerably depending on the categories, ranging from 80 to 100% during calibration and from 38 to 100% during validation. DESCRIPTION OF THE FIGURES Figure 1, block diagram of operation of the process. The different blocks involved in the application of this method are appreciated: (1) olives from the tasting of a cocedera, (2) dyeing and drying of the cut olive , (3) location of stained and dried olives on a dark background, (4) capture and digitalization of the image with constant illumination, (5) analysis and obtaining the cooking time, (6) temporary prediction for a given percentage of stew . Figure 2, preferred image of olive after processing (1) Contrasting dark background with olive 20 (2) Cooked olive pulp with NaOH (3) Pulp and bone without attack by NaOH Description of the invention To determine the percentage of cooked in NaOH of the olives, we start with a tasting of the same from the cocedera and cut them longitudinally flush with the bone, then apply a tincture 25 sensitive to the presence of NaOH, the olives are dried they are located forming a matrix of 4x4 or 4x5 olives and an image of them is captured on a dark background with constant and identical lighting levels for all the repetitions that are carried out in the procedure. From the obtained image we will segment: bottom (1), pulp attacked by NaOH (2) and pulp and bone without attacking 30 by NaOH (3). From here we determine what percentage of the total of the olive has already been cooked for that sample, the result being stored in a database. With the data of the successive tastings we will adjust the trend and thus we will be able to predict the optimal time of completion of the stew. 35 PREFERRED EMBODIMENT OF THE INVENTION a) Fruit: To the samples of olives cut manually, a dye marker sensitive to NaOH is applied to them, they are left to dry and they are placed on a dark background support (1) (black, blue) ). This procedure ensures a greater contrast between the bottom, the tincture that is deposited in the area attacked by the NaOH (2) and the still intact zone of the center of the fruit (3). b) Image system: The image is acquired using cameras (CCO, CMOS), or a scanner that allows images to be processed always in identical lighting conditions. The images obtained are digitized and sent to a P.C. to be analyzed or alternatively to an autonomous system based on FPGA, OSP or Microcontroller. e) Image processing: 15 1.-The image is segmented in the three RGB color planes. 2.-Using the information contained in the R plane, we separate the dark background (black, blue), from the contour of the olive. 3.-Using the information contained in the green plane we differentiate the part penetrated by the NaOH from the one that is still intact. 20 4.-With the information obtained so far, we determine the portion that is cooked of the total of the olive. d) Prediction of the optimum moment of completion of the cooking: By means of non-linear adjustment or with the use of a trained neural network we quantify for a percentage of cooked the moment in which it is going to be reached: 1.-0We determine several percentage values of cooked for short times (from 2 to 4 hours) in which we know that the optimum cooking value has not yet been reached. 30 2.-Starting from them and applying the initial conditions of the problem (at the initial moment the percentage of cooking is 0% and for a very long time (more than 15 hours), the total percentage of cooking is 100%) , we determine the optimum cooking time or for a requested percentage (eg 90-95%), at what time it will be reached. 35

Claims (1)

REIVINDICACIONES 1.-Procedimiento para la determinación cuantitativa del porcentaje de cocido en 5 sosa caústica de aceitunas y predicción del momento óptimo de finalización del mismo, caracterizado porque comprende: a) aceitunas en proceso de cocción con NaOH cortadas longitudinalmente para su inspección visual. 10 b) teñido y secado de las aceitunas cortadas longitudinalmente para diferenciar la parte atacada por NaOH de la que aún está intacta. c) un sistema de captura y digitalización de imágenes basado en cámaras o escáner de las aceitunas teñidas sobre un fondo contrastante. d) el análisis de la imagen de las aceitunas teñidas sobre un fondo 15 contrastante basado en P.C. o en un sistema autónomo con FPGA, DSP o Microcontrolador. e) una segmentación de la imagen en planos de color, para determinar de forma cuantitativa la porción que esta cocida del total de la aceituna. f) un ajuste no lineal o una red neuronal entrenada para estimar el 20 momento óptimo de cocido o el tiempo necesario para alcanzar un porcentaje del mismo. 1.-Procedure for the quantitative determination of the percentage of cooking in caustic soda of olives and prediction of the optimum time for its completion, characterized in that it comprises: a) olives in the cooking process with NaOH cut longitudinally for visual inspection. 10 b) dyeing and drying of the olives cut longitudinally to differentiate the part attacked by NaOH from that which is still intact. c) a system for capturing and digitizing images based on cameras or scanners of stained olives on a contrasting background. d) the analysis of the image of the stained olives on a contrasting background based on P.C. or in an autonomous system with FPGA, DSP or Microcontroller. e) a segmentation of the image in color planes, to quantitatively determine the portion that is cooked of the total olive. f) a non-linear fit or a neural network trained to estimate the optimal firing moment or the time required to reach a percentage of it.
ES201100462A 2011-04-26 2011-04-26 PROCEDURE FOR THE QUANTITATIVE DETERMINATION OF THE PERCENTAGE OF COOKED IN THE CAUSTIC SLEEP OF OLIVES AND PREDICTION OF THE OPTIMAL MOMENT OF COMPLETION OF THE SAME Active ES2394821B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
ES201100462A ES2394821B2 (en) 2011-04-26 2011-04-26 PROCEDURE FOR THE QUANTITATIVE DETERMINATION OF THE PERCENTAGE OF COOKED IN THE CAUSTIC SLEEP OF OLIVES AND PREDICTION OF THE OPTIMAL MOMENT OF COMPLETION OF THE SAME
PCT/ES2012/000104 WO2012146799A1 (en) 2011-04-26 2012-04-24 Method for quantitatively determining as a percentage the cooking progress of olives in caustic soda and predicting the optimum time for ending the process

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
ES201100462A ES2394821B2 (en) 2011-04-26 2011-04-26 PROCEDURE FOR THE QUANTITATIVE DETERMINATION OF THE PERCENTAGE OF COOKED IN THE CAUSTIC SLEEP OF OLIVES AND PREDICTION OF THE OPTIMAL MOMENT OF COMPLETION OF THE SAME

Publications (2)

Publication Number Publication Date
ES2394821A1 true ES2394821A1 (en) 2013-02-05
ES2394821B2 ES2394821B2 (en) 2013-08-29

Family

ID=47071631

Family Applications (1)

Application Number Title Priority Date Filing Date
ES201100462A Active ES2394821B2 (en) 2011-04-26 2011-04-26 PROCEDURE FOR THE QUANTITATIVE DETERMINATION OF THE PERCENTAGE OF COOKED IN THE CAUSTIC SLEEP OF OLIVES AND PREDICTION OF THE OPTIMAL MOMENT OF COMPLETION OF THE SAME

Country Status (2)

Country Link
ES (1) ES2394821B2 (en)
WO (1) WO2012146799A1 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
ES236093A1 (en) * 1957-06-15 1957-12-16 Izquierdo Benito Leandro Procedure and apparatus to achieve the fermentation of the olive, in a directed form (Machine-translation by Google Translate, not legally binding)
US4122951A (en) * 1977-02-28 1978-10-31 Alaminos Jose I L Machine for the automatic detection of blemishes in olives and other fruits
JP2006191854A (en) * 2005-01-13 2006-07-27 Kagawa Prefecture Olive tea and method for producing the same
ES2327308A1 (en) * 2007-12-26 2009-10-27 Instituto Andaluz De Investigacion Y Formacion Agraria, Pesquera, Alimentaria Y De La Produccion Apparatus and procedure for the continuous and uniform heating of olive mass by ultrasound. (Machine-translation by Google Translate, not legally binding)

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
ES236093A1 (en) * 1957-06-15 1957-12-16 Izquierdo Benito Leandro Procedure and apparatus to achieve the fermentation of the olive, in a directed form (Machine-translation by Google Translate, not legally binding)
US4122951A (en) * 1977-02-28 1978-10-31 Alaminos Jose I L Machine for the automatic detection of blemishes in olives and other fruits
JP2006191854A (en) * 2005-01-13 2006-07-27 Kagawa Prefecture Olive tea and method for producing the same
ES2327308A1 (en) * 2007-12-26 2009-10-27 Instituto Andaluz De Investigacion Y Formacion Agraria, Pesquera, Alimentaria Y De La Produccion Apparatus and procedure for the continuous and uniform heating of olive mass by ultrasound. (Machine-translation by Google Translate, not legally binding)

Also Published As

Publication number Publication date
ES2394821B2 (en) 2013-08-29
WO2012146799A1 (en) 2012-11-01

Similar Documents

Publication Publication Date Title
Chen et al. Machine vision technology for agricultural applications
Xing et al. Detecting bruises on ‘Golden Delicious’ apples using hyperspectral imaging with multiple wavebands
Li et al. Multispectral detection of skin defects of bi-colored peaches based on vis–NIR hyperspectral imaging
ElMasry et al. Early detection of apple bruises on different background colors using hyperspectral imaging
Li et al. Fast detection and visualization of early decay in citrus using Vis-NIR hyperspectral imaging
ElMasry et al. Detecting chilling injury in Red Delicious apple using hyperspectral imaging and neural networks
Lu et al. Non-destructive defect detection of apples by spectroscopic and imaging technologies: a review
Lee et al. Hyperspectral near-infrared imaging for the detection of physical damages of pear
Cubero et al. Advances in machine vision applications for automatic inspection and quality evaluation of fruits and vegetables
Ariana et al. Evaluation of internal defect and surface color of whole pickles using hyperspectral imaging
Saldaña et al. Computer vision applied to the inspection and quality control of fruits and vegetables
Park et al. Contaminant classification of poultry hyperspectral imagery using a spectral angle mapper algorithm
Ariana et al. Integrating multispectral reflectance and fluorescence imaging for defect detection on apples
Gowen et al. Hyperspectral imaging combined with principal component analysis for bruise damage detection on white mushrooms (Agaricus bisporus)
Baranowski et al. Detection of early bruises in apples using hyperspectral data and thermal imaging
Guzmán et al. Infrared machine vision system for the automatic detection of olive fruit quality
Zhang et al. Detection of common defects on mandarins by using visible and near infrared hyperspectral imaging
Eissa et al. Understanding color image processing by machine vision for biological materials
Wold et al. Detection of parasites in cod fillets by using SIMCA classification in multispectral images in the visible and NIR region
Liu et al. Development of a simple algorithm for the detection of chilling injury in cucumbers from visible/near-infrared hyperspectral imaging
Xing et al. Stem-end/calyx identification on apples using contour analysis in multispectral images
Lu et al. Quality evaluation of apples
Saputro et al. Banana (Musa sp.) maturity prediction system based on chlorophyll content using visible-NIR imaging
Torres et al. Setting up a methodology to distinguish between green oranges and leaves using hyperspectral imaging
RU2388203C2 (en) Device for detection of homogeneity in batch of seeds

Legal Events

Date Code Title Description
FG2A Definitive protection

Ref document number: 2394821

Country of ref document: ES

Kind code of ref document: B2

Effective date: 20130829