Mejora de La Etapa de Secado en El Proceso de Produccion de Harina de Pescado Empleando Vision Artificial
Short Description
Download Mejora de La Etapa de Secado en El Proceso de Produccion de Harina de Pescado Empleando Vision Artificial...
Description
MEJORA DE LA ETAPA DE SECADO EN EL PROCESO DE PRODUCCIÓN DE HARINA DE PESCADO EMPLEANDO VISIÓN ARTIFICIAL
Abstract. During the elaboration process of fish meal, there are certain stages in which the feedback from the process of drying, pressing and cooking is done manually, under certain variables such as texture and color found in the finished product and also according the result obtained from the analysis of laboratory samples. In this particular case we refer to the stages of drying. According to experts, the color and texture seen and felt in the production process directly affects the quality of the final product, so modifying parameters such as temperature and humidity in the previous stage of the drying process of fish meal as the aforementioned variables (color and texture).
Introducción. Durante el proceso de elaboración de harina de pescado, existen ciertas etapas en las cuales la retroalimentación del proceso de secado, prensado y cocinado se realiza de forma manual, bajo ciertas variables como la textura y el color observado en el producto elaborado y también de acuerdo al resultado obtenido del análisis de las muestras de laboratorio. En este caso en particular nos referiremos a las etapas de secado. Según los expertos, el color y textura observado y palpado en el proceso de producción influye directamente en la calidad del producto final, es así que se modifican parámetros como temperatura y humedad, en la etapa anterior del proceso de secado de la harina de pescado según las variables antes mencionadas (color y textura).
1. Proceso de elaboración de harina de pescado en Planta Ilo
Figura Nro 1. Diagrama general de las etapas de producción de Harina de Pescado. En la Figura Nro 1 se muestra las etapas de producción de Harina de Pescado, además se indica los lugares en donde se realizaría la adquisición de imágenes.
2. Arquitectura de visión artificial
Adquisición de imágenes
Procesamiento de imágenes
Evaluación y entrega de resultados
Equipamiento de adquisición de imágenes
Cálculo de color textura de imágenes
Presentación de resultados
Preparación de biblioteca de imágenes
3. Adquisición de Imágenes. Según la figura Nro 1. las etapas que consideramos adecuadas para instalar los dispositivos de adquisición de imágenes, son a la salida de el Secador de Vapor Rotatubos y el Secador de Aire caliente.
4. Procesamiento de imágenes 1.Introducción Las texturas proporcionan características importantes para la superficie y la identificación de objetos a partir de fotografías aéreas o por satélite, imágenes biomédicas y de muchos otros tipos de imágenes. Análisis de texturas es fundamental para muchas aplicaciones como la inspección visual automatizada, el procesamiento de imágenes biomédicas, y la teledetección. Trabajos de investigación se ha hecho mucho en el análisis de la textura, la clasificación y segmentación para las últimas cuatro décadas. A pesar de estos esfuerzos, el análisis de la textura sigue siendo considerado un problema interesante, pero difícil en el procesamiento de imagen. Aunque el concepto de textura era difícil de definir, los estudios demostraron que la estadística espacial calculada sobre los niveles de gris de las imágenes fueron capaces de dar buenos descriptores de la sensación de percepción de textura. Los descriptores de textura son las herramientas más potentes para las tareas de clasificación o de segmentación de los problemas. En la última década, el estudio de la textura se ha extendido al estudio de la textura en imágenes en color. A continuación se describen varios métodos de clasificación de textura y color que permitirán discriminar las variables de textura y color que como se han determinado anteriormente son la base para nuestra aplicación de visión artificial. 2. Descomposición por Wavelet La Transformación de ondas continuas de una señal de 1-D f (x) se define como: (Waf )(b) = f (x )
a,b(x)dx
(1)
Donde la onda a, b se calcula a partir de la
wavelet madre por la traducción y la dilatación (2)
Bajo algunos supuestos leves, el wavelet madre satisface la restricción de tener media cero. La eq. (1) puede ser discretizada mediante la restricción de A y B a una red discreta (a = 2 b, b ). Normalmente, se impone que las transformación debe ser no-redundante, completa y constituye una representación multiresolución de la señal original. La extensión a los casos en 2-D se realiza generalmente mediante el uso de un producto de Filtros 1-D. En la práctica, la transformación se calcula mediante la aplicación de un banco de filtros separables a la imagen:
(3)
donde * denota el operador de convolución, (3) 2,1 ( 1,2) denota el muestreo hacia abajo a lo largo de las filas (columnas) y un A0 = I es la imagen original, H y G son los filtros pasa alto y pasa bajos y respectivamente. A n se obtiene por un filtrado de pasa bajos y se denomina como la imagen de baja resolución (aproximación) en la escala n. D n1, D n2 , Dn3se obtienen por un filtro pasa banda en una dirección específica (horizontal, vertical y diagonal, respectivamente) y por lo tanto contienen información direccional detallada n y se denomina imágenes de alta resolución (detalle) en la escala n. La imagen original I ; es pues, representada por un conjunto de sub imágenes en varias escalas. Esta descomposición se llama descomposición por "Transformada piramidal de óndulas" o Descomposición Discreta por òndulas (DWT). Cada sub-imagen contiene información detallada de una escala y orientación específicas. La información espacial es retenida dentro de la sub-imagen. En el presente trabajo, las características se obtienen utilizando la óndula de Haar (Fig. 1.), Que viene dada por
(4)
Fig(1) Representación de una ondula Harr
Fig(2) Descomposición por ondulas de una Imagen (I)
Cómo es requerido (t) integra a cero. Imágenes de detalle de un solo nivel diagonal son mostradas en Fig. 2. 3. La propuesta de trabajo 3,1 Generación de características El trabajo propuesto consiste en la extracción de características basadas en ondulas de cada bloque de la textura de una imagen. Es una extensión del método de simultaneidad de histograma, para las imágenes de multiresolución. Los simultaneidad de histogramas se construye a través de diferentes coeficientes de ondulas de una imagen y su complemento descompuesto hasta el nivel 1. Las combinaciones consideradas son:
And El vector de traslación se denota por t [d, a], donde "d" es la distancia y “a” es el ángulo. En experiencias previas se han considerado una distancia de 1 (d = 1) y ocho ángulos (a = 0º, 45º, 90º, 135º, 180º, 225º, 270º, 315º). El diagrama esquemático se muestra en la Fig. 3. Los histogramas simultáneos para cada combinación, para cada uno de los ocho ángulos, se constituyen en la obtención de 16 histogramas por par. El conjunto de características incluye 384 de cada uno con 3características calculadas a partir del histograma acumulativo normalizado. Ejemplo: 8 pares x 16 histogramas x 3características.
Fig(3) Diagrama esquemático que muestra el método propuesto.
El método para el cálculo de histogramas y extracción de características para un par (A1, D11) y para un ángulo p.e., 0º es mostrado abajo:
Cálculo de Histograma
Fig(4) 8 vecinos más cercanos de x en A1 y D11 respectivamente. 1. Un pixel x en A y un pixel y en la correspondiente ubicación en D11 se muestra en la fig.4., con sus 8 vecinos más cercanos. El píxel vecino de x e y considerado para el cálculo de simultaneidad se muestran encerrrados por círculos en la fig. 4. 2. La construcción de dos histogramas H1 y H2 para A, basado en la regla de composición maxmin se indican a continuación: a. Sea = max (min (x, y 1), min (y, x 1)) b. Entonces, si x H 1, = min (x, y 1) c. y, si x H 2, = min ( y, x 1) 3. Repita los pasos 3. 1 y 2 para todos los píxeles x de A 1. Características de Cálculo: Tres características se calculan a partir de cada histograma como se explica a continuación: 1. Considere un histograma H. 2. Obtener histograma acumulativo (CH) para H. 3. Normalizar CH rendimiento NCH [13]. 4. Los puntos de la NCH (NCH 1, NCH 2, ..., NCH256), son los puntos de la muestra. 5. Desde los puntos de muestra, calcular las siguientes características: Pendiente: S nch = pendiente de la línea de regresión ajustada a través de los puntos de muestreo.
Media:
(5)
Desviación Media:
(6)
Este procedimiento es ilustrado en la fig. 5.
Fig(5) Diagrama que muestra la característica del calculo.
3.2 Método multiespectral en el espacio RGB Para obtener una imagen en color, las características basadas en ondulas (sección 3.1) se calculan sobre cada uno de los canales R, G, B. Se da un total de 384x3 = 1152 características. La representación esquemática se muestra en la figura. 6
Fig(6) Diagrama esquemático que muestra el enfoque multiespectral en el espacio RGB. 3.3 Método multiespectral en espacios HSV y YCbCr En este enfoque, usamos diferentes espacios de color, a fin de obtener un canal que contiene la información de luminancia y otras dos que contienen información de crominancia. Características de textura se calculan entonces por el canal de luminancia. Las características estadísticas denominadas de primer orden, media y desviación estándar, se calculan desde el canal de crominancia: (7) (8) Este método produce 384 +2 +2 = 388 funciones y se prueba en espacios de color VHS y YCbCr. En primer lugar, el HSV (tono, saturación, valor) fue el espacio de color utilizado. Corresponde a la mejor experiencia de cómo la gente experimienta el que el espacio de color RGB hace: hue(H) representa la longitud de onda de un color si fuera monocromática. Hue varía de 0 a 1 cuando el color va del rojo al verde luego a azul y luego de vuelta a rojo. H se define como Módulo 1. Como el color es rara vez monocromático, la saturación (S) representa la cantidad de color blanco mezclado con los colores monocromáticos. El Valor (V) no depende del color, sino que representa el brillo. Así H y S representan la crominancia y V es la intensidad. Las siguientes ecuaciones transforman RGB en [0,1] para HSV en [0,1]:
(10) , si V=G , si V=G
(11) (12)
En segundo lugar, utilizando el espacio de color YCbCr, que es ampliamente utilizado para vídeo digital. En este formato, la información de luminancia se almacena como único componente (Y), y la información de crominancia se almacena como dos componentes diferenciados de color (Cb y Cr). Cb representa la diferencia entre el componente azul y un valor de referencia. Cr representa la diferencia entre el componente rojo y un valor de referencia. Estas características se define a efectos de procesamiento de vídeo y por lo tanto no son significativos para la percepción humana. Las siguientes ecuaciones transformar RGB en [0,1] para YCbCr en [0,255]:
La fig. 7. Muestra la generación de características esquemáticamente. 3.3 Método de escala de grises En este método la imagen en color se convierte en una imagen en escala de grises.
Ninguna información de color se codifica. Las características de textura se calculan sobre la imagen en escala de grises. Este método construye 384 características. La representación esquemática se muestra en la Fig. 8.
Fig(7) Diagrama esquemático que muestra el enfoque multiespectral en el espacio HSV/YCbCr.
Fig(8) Diagrama esquemático que muestra las características de textura para el método de escala de grises. 4. Clasificación y entrenamiento para Textura Para la experimentación, en el tema de reconocimiento de la textura de harina de pescado se deben obtener un conjunto de datos se compone de imágenes de textura, cada uno de tamaño 512x512 obtenidos a partir de la etapa de adquisición de imágenes. Cada imagen de textura se subdividen en 64 bloques de igual tamaño, de los cuales 32 bloques elegidos al azar se utilizan como muestras para la formación y bloques restantes se utilizan como muestras de prueba para esa clase de texturas. 4.1 Entrenamiento En la fase de entrenamiento de la textura, las características de textura (descritas en la sección 3) se extraen de las 32 muestras seleccionadas al azar pertenecientes a cada clase de texturas,
utilizando el método propuesto de extracción de características. Estas características se almacenan en la biblioteca de características, que son las más útiles para la clasificación de texturas.
4.2 Clasificación En la fase de clasificación de la textura, las características de textura se extraen de la muestra x usando la propuesta de algoritmo de extracción de características, a continuación, en comparación con los valores correspondientes de la función de k todas las clases de textura almacenada en la biblioteca de funciones mediante la fórmula de vector de distancia,
donde N es el número de características en f, fj(x) representa la jth característica de textura de la muestra x evaluada, mientras fj(M) representa la jth característica de la Mth clase de textura en la librería. La textura es clasificada usando los k-más cercanos vecinos del clasificador (K-NN). En el clasificador K-NN, la clase de la muestra evaluada es decidida por la clase mayoritaria a lo largo de los K más cercanos vecinos. Un vecino se considera más cercano, si se tiene la menor distancia en el espacio de características. Con el fin de evitar un empate de votos, es preferible elegir como K un número impar. 5. Resultados experimentales y discusión Los resultados experimentales del método propuesto en diferentes espacios de color se comparan en tablas que muestran el porcentaje de clasificación para las clases de diferentes imágenes. El análisis de la experimentación de resultados debería mostrar, en general, una precisión de la clasificación de alrededor de 97.98% con el método multiespectrales en el espacio RGB.
5. Presentación de resultados 6. Referencias
View more...
Comments