Quimiometría: el tratamiento de datos químicos al servicio de la industria alimentaria

Quimiometría: el tratamiento de datos químicos al servicio de la industria alimentaria

Recientemente, CNTA asistió al webinar ‘Chemometrics Open Day’, organizado por la Società di Chimica Italiana, en la que se expuso la importancia de la quimiometría y qué aspectos se deben tener en cuenta para sacar el máximo partido a un buen diseño de experimentos y los datos analíticos que producen diariamente todas las empresas. En este blog te resumimos lo más interesante de este evento.

María José Sáiz Abajo, responsable de Nuevas Aplicaciones Analíticas en CNTA.

mjsaiz@cnta.es

Una de las herramientas más en boga y utilizadas en estos momentos, también desde CNTA, es la quimiometría, una ciencia que la International Chemometrics Society (ICS) la define como “la disciplina química que utiliza métodos matemáticos y estadísticos sobre datos químicos para: diseñar o seleccionar procedimientos de medida y experimentos óptimos, para proporcionar la máxima información mediante el análisis de datos y exponer toda esta información a través de una representación gráfica”.

Esta ciencia puede aplicarse a la industria alimentaria para el desarrollo del producto, el control en procesos o para establecer modelos predictivos para la previsión de eventos como: comportamiento de la demanda, incidencia de defectos en el producto o identificación de patógenos alimentarios como Listeria, Salmonella, Campylobacter o E. coli

La quimiometría se puede aplicar en el desarrollo del producto, el control en procesos o para establecer modelos predictivos

Uno de los aspectos más relevantes de la quimiometría es que permite “obtener información valiosa a partir del análisis de datos multivariantes, los cuales estudiados individualmente no nos proporcionarían ninguna información de interés a simple vista”, según explicaron en el webinar: ‘Chemometrics Open Day’.

Cada tipo de dato requiere su entendimiento y sus tratamientos específicos que permiten extraer toda la información que los datos contienen. “Solo así se aplicará correctamente y se obtendrán resultados válidos”, se argumentó durante el evento.

Casos prácticos en el uso de la quimiometría

Alessandro D’Alessandro, director de Investigación de Barilla, expuso en el webinar cómo usa las técnicas de diseño de experimentos y el análisis estadístico en todos sus desarrollos de producto.

Durante su intervención, mostró ejemplos prácticos de cómo un buen análisis de datos solucionó problemas como la diferenciación de aromas en albahaca (las diferentes variedades de albahaca cuentan con distintos perfiles aromáticos. En el evento, D’Alessandro comentó que a algunos proveedores les cambiaron de variedad de aroma y al ser aromáticamente diferente esto impactaba en el aroma del pesto que se fabricaba) o encontrar la formulación de mayor calidad entre diferentes propuestas de salsa pesto.

En conclusión, D’Alessandro indicó que tras analizar los datos mediante quimiometría, se pudo identificar qué estaba ocurriendo con los diferentes tipos de albahaca y su impacto en el producto final: el pesto.

Asimismo, el director de Investigación de Barilla explicó que utilizan la quimiometría en el control de proceso, mediante el control de múltiples variables al mismo tiempo, para asegurarse de que “el proceso no se va de las manos”, lo cual redunda en pérdida de rendimiento y una alta tasa de producto no conforme.

Por último, el director de Investigación de Barilla admitió que “están empezando a avanzar en el control predictivo de proceso”, ya que su empresa se toma “el análisis del dato muy en serio”, por lo que cuentan con personal que se dedica “exclusivamente a su estudio y explotación”.

Otro ejemplo de uso de la quimiometría que pudimos ver en este evento fue el que relató María Concepción Cerrato, Technical Operations Senior Leader en Janssen, la cual mostró el caso práctico de la aplicación de la quimiometría y el análisis de datos para detectar un problema que tenían en proceso. Así, detalló que tenían dos líneas de comprimidos, con dos tipos de mezcladoras diferentes, y siempre observaban problemas de productos no conformes en una de ellas.

Cerrato indicó que en su empresa descubrieron que el quid de la cuestión estaba en unos reactores de mezcla de productos secos. Para detectarlo, la Technical Operations Senior Leader afirmó que “estudiamos, al mismo tiempo, múltiples factores de proceso (línea,

turnos, temperaturas, humedad, etc.) y gracias a ello pudimos determinar que la humedad en un turno de noche era el factor clave para que salieran esos lotes defectuosos de comprimidos”.

Por ello, María Concepción Cerrato no dudo en aseverar que “encontrar el problema para resolverlo fue posible gracias al buen uso de la quimiometría y el análisis estadístico multivariante. Además, utilizar estas herramientas nos permite controlar la calidad y liberar los lotes a tiempo real (Real Time Delivery), lo que nos da una ventaja competitiva frente a nuestros competidores”.

Cambio de mentalidad en la industria alimentaria

Para que la industria alimentaria saque el máximo partido a la quimiometría durante el webinar, Alessandro D ’Alessandro también destacó los siguientes puntos clave a tener en cuenta:

– Se debe producir un cambio de mentalidad en la industria alimentaria. La optimización de variables una a una (procedimiento muchas veces utilizado) es una sistemática de optimización errónea, ya que en el momento en que existe una interacción entre alguna de esas variables, nos lleva a encontrar “máximos” relativos sin ser capaces de detectar cuáles son las condiciones óptimas reales. Se recomienda el uso de la estrategia de diseño de experimentos al plantear las pruebas, un buen tratamiento estadístico de los datos obtenidos y la observación multivariante frente al estudio univariante de los datos.

La calidad del dato es fundamental para obtener buenos modelos. Un dato de calidad o con baja tasa de error se obtiene haciendo una recolección de la forma más automática posible. Es decir, un dato (por ejemplo: una temperatura) apuntado a mano por un operario que posteriormente se pasa a un Excel por otra persona, es muy probable que contenga más errores que si esa toma de datos se hace de manera automática mediante un lector de temperatura conectado a la línea.

– Los modelos entrenados con gran número de muestras son muy robustos, pero no siempre es posible tener un gran número de observaciones. Si sucede este último punto, hay que sacar el máximo partido de las existentes.

Los datos de proceso (aquellos recogidos directamente en la línea) tienen una importancia vital. Resulta fundamental recoger adecuadamente esos datos para poderlos usar a posteriori. Para ello, se debe avanzar en la sensorización de los procesos y recogida automática del dato, para así evitar errores. Este avance en la digitalización de las empresas y las fábricas sin papeles es lo que permitirá obtener datos con los que poder entrenar modelos de calidad.

Financiado por:



#Follow us on Instagram