Análisis, monitorización y diagnóstico de fallos en procesos multivariantes

Quimiometría de procesos y calibración multivariante

Integración de la monitorización estadística (SPC) con la regulación (EPC) de procesos multivariante

Análisis multivariante de imágenes

Métodos estadísticos aplicados a las ciencias "ómicas"

Sensometría olfativa

Análisis, monitorización y diagnóstico de fallos en procesos multivariantes: continuos y por lotes. 

Responsable: Alberto J. Ferrer

Colaboración: Daniel Aguado (Grupo de Investigación CALAGUA, Dpto. de Ingeniería Hidráulica y Medio Ambiente), Jesús Picó y José Camacho (Dpto. de Ingeniería de Sistemas y Automática).

En los modernos procesos industriales se generan enormes cantidades de datos. En esta línea se exploran las potencialidades de las técnicas estadísticas multivariantes de proyección sobre estructuras latentes (Análisis de componentes principales – PCA, mínimos cuadrados parciales – PLS, ...) para extraer la información de estos datos y utilizarla en el análisis, identificación de fallos y puntos críticos del proceso, así como para ayudar en el diagnóstico de las variables responsables y desarrollar modelos empíricos de monitorización de procesos en tiempo real (control estadístico de procesos multivariante - MSPC).

Se estudia también la adaptación de los métodos de control estadístico multivariante de procesos (MSPC) a las particularidades de los procesos industriales por lotes, quienes, a pesar del enorme valor añadido que suelen tener, y debido a su complejidad, en la práctica funcionan sin ninguna forma efectiva de monitorización en tiempo real. Se investiga la forma de desarrollar e implantar sobre procesos por lotes complejos reales un sistema integrado que permita la rápida detección y el diagnóstico de fallos, la monitorización en tiempo real y el establecimiento de modelos predictivos (soft-sensors) mediante las novedosas técnicas multivariantes de análisis de matrices de datos tridimensionales (3-way data).

Quimiometría de procesos y calibración

The development of instrumental analysis techniques (spectrometry, chromatography...) and of sensor technology makes it feasible to generate a large number of data items associated with each sample collected. The complex structure of the data recorded requires the development of special techniques for obtaining good models of multivariate calibration. The analysis of these complex structures tends to be done by means of statistical models of multivariate projection, whose basic aim is to adapt said structure as best as possible according to pre-set construal or prediction criteria.

The main models traditionally used have been the PCA and PLS, with its Unfold extensions, for unfolding the structures formed of cubes or n-dimensional structure. The improvement in the calculation capacity of computers over the last decade has enabled effectively incorporating more general models, such as the Tucker3, PARAFAC and N-PLS, which allow the structure of the data to be studied directly, without carrying out any kind of unfolding.

Responsable: Alberto J. Ferrer

Colaboración: Daniel Aguado (Grupo de Investigación CALAGUA, Dpto. de Ingeniería Hidráulica y Medio Ambiente), Jesús Picó y José Camacho (Dpto. de Ingeniería de Sistemas y Automática).

Integración de la monitorización estadística (SPC) con la regulación (EPC) de procesos multivariante

Responsable: Alberto José Ferrer Riquelme

Colaboración:: José CamachoJesús Picó y Javier Sanchís (Dpto. de Ingeniería de Sistemas y Automática).

En esta línea de investigación se aborda el estudio de diversos procedimientos que permitan desarrollar la estrategia MESPC: integración del MEPC (Multivariate Engineering Process Control) con el MSPC (Multivariate Statistical Process Control). Para ello se aborda el estudio de modelos de series temporales autorregresivos y de medias móviles vectoriales para el análisis conjunto de parámetros de calidad, de productividad y de proceso en sistemas productivos con dinámica. Como caso particular de estos modelos, se considera la aplicación de funciones de transferencia multi-input/multi-output en el modelado de relaciones dinámicas unidireccionales.

El control ingenieril de procesos multivariante se aborda mediante el Control Predictivo Basado en Modelos (CPBM), metodología que hace uso de los modelos indicados previamente para desarrollar ecuaciones predictivas y algoritmos de control, cuyo funcionamiento se plantea como uno de los objetivos de investigación. La monitorización estadística de procesos se aborda investigando las variables a monitorizar, así como los gráficos de control a implementar. Por último esta línea de investigación implica el estudio de las ventajas de la integración MESPC ante causas especiales de variación, comparando su eficacia con la del sistema MEPC (sin monitorización).

Análisis multivariante de imágenes

La revolución tecnológica ha permitido incorporar sensores de imágenes en muchos procesos. Estos sensores proporcionan imágenes digitalizadas multiespectrales que son una fuente de información muy valiosa para la detección de defectos, el control y la mejora de procesos. Estas imágenes multivariantes están constituidas por imágenes digitales congruentes en diversos canales o modos asociados a ciertas longitudes de onda o colores, diversos tiempos, etc., dando lugar a complejas estructuras de datos correlacionados N-dimensionales. El Análisis Multivariante de Imágenes (MIA) permite extraer información a partir de este tipo de imágenes utilizando PCA o PLS, ayudando a comprender las relaciones entre los distintos canales de color y/o información (v.g. imágenes médicas de distinto tipo, como pueden ser Rx, TAC, NMR, etc.)

Por otra parte, el desarrollo de estas técnicas ha derivado en lo que se conoce como Análisis Hiperespectral de Imagen. En este caso, cada pixel almacena información de tipo químico asociado a un espectro completo, lo cual deriva en una gran complejidad a la hora de manejar estas estructuras. En primer lugar, la dificultad asociada a la inmensa cantidad de datos almacenados en este tipo de estructuras y, en segundo lugar, el hecho de disponer de información de tipo claramente químico. Estos dos aspectos hacen necesario el uso de modelos quimiométricos claramente enfocados hacia la síntesis de esta información en canales de color asociados a cada uno de los componentes químicos incluidos en las mezclas, tales como el MCR (multivariate curve resolution) o el CLS (classical least squares). Una vez “traducida” la estructura en la información subyacente (asociada a las concentraciones de cada componente químico), es posible aplicar MIA con el objeto de comprender la estructura de correlación entre y dentro de componentes, tanto a nivel químico como textural, en caso de incluir algún tipo de información espacial.

En esta línea se exploran las potencialidades del MIA para el control y monitorización de procesos, la detección de fallos o enfermedades, el establecimiento de modelos predictivos (soft-sensors), así como herramientas de clasificación y de cuantificación de la calidad de los productos finales.

Responsable: José Manuel Prats

Métodos estadísticos aplicados a las ciencias "ómicas" 

Responsable: Alberto José Ferrer Riquelme

ColaboraciónAna Conesa (Centro de Investigación Príncipe Felipe), Mª José Nueda (Universidad de Alicante) y Sonia Tarazona (Centro de Investigación Príncipe Felipe).

En los últimos tiempos, las ciencias “ómicas” (genómica, transcriptómica, metabolómica, etc.) han experimentado un gran avance gracias a las nuevas tecnologías de alto rendimiento que permiten el estudio simultáneo de miles de genes, tránscritos, metabolitos, etc. Así pues, la bioinformática ha cobrado un especial interés, ya que utiliza herramientas informáticas y estadísticas para extraer información biológica de los miles de datos generados, con el objeto de encontrar la causa de una enfermedad, descubrir nuevos fármacos o incluso, en un futuro, diseñar tratamientos médicos personalizados. En concreto, nuestro grupo tiene abiertas líneas de investigación en transcriptómica y metabolómica.

En transcriptómica se estudia la expresión génica, es decir, la actividad biológica de los genes. Cuando un gen se expresa, se generan varias “copias” del mismo (tránscritos) que darán lugar a la formación de proteínas. Así, cuando un gen se expresa en individuos enfermos pero no en individuos sanos, será un gen cuya función estará relacionada con la enfermedad en cuestión. Tanto los microarrays (micromatrices de ADN) como las nuevas técnicas de secuenciación masiva (Next Generation Sequencing Technologies) permiten estimar simultáneamente la expresión de miles de genes o incluso de todo el genoma, dando lugar a estructuras de datos multivariantes (ya que se estudiarían miles de variables, en este caso, los genes). Por tanto, es indispensable el uso eficiente de los métodos estadísticos para diseñar y analizar este tipo de experimentos con el fin de extraer de los mismos información biológica relevante.

La metabolómica viene a completar las áreas de conocimiento previamente abarcadas por la genómica y la proteómica, mediante la medida cuantitativa de los metabolitos endógenos presentes en muestras biológicas de distinto origen (orina, plasma, células, tejidos). Los metabolitos son los productos finales de las funciones de genes y proteínas, por lo que su medida es un buen reflejo del estado fisiológico y fenotípico en el que se encuentra el organismo en el que se hallan. El metabonoma desde un punto de vista analítico se considera como un conjunto de compuestos químicos (metabolitos) presentes en un sistema biológico (célula, tejido u organismo), con comportamiento dinámico y que presentan una gran variabilidad estructural. En la actualidad existen distintas plataformas analíticas para llevar a cabo su medida, entre ellas en los últimos años han destacado dos plataformas: i)  resonancia magnética nuclear (RMN) y ii) espectrometría de masas (MS) acoplada a cromatografía líquida (LC) o de gases (GC). El análisis del metabonoma de una muestra genera una compleja estructura de datos que requiere de métodos estadísticos multivariantes para su manejo e interpretación.

Sensometría olfativa

Diferentes estudios sugieren que el número de dimensiones en la percepción olfativa es de unas 20-30. Dado el elevado número de dimensiones, describir la sensación que produce un determinado olor no resulta sencillo. Por esta razón, es complicado llegar a un consenso a la hora de clasificar olores, o bien desarrollar mapas sensoriales que pongan de manifiesto las similitudes y diferencias entre los descriptores utilizados a la hora de describir un determinado olor. Distintas bases de datos contienen información sobre el perfil olfativo de sustancias químicas o bien de perfumes comerciales. Esta línea de investigación pretende fundamentalmente analizar con técnicas estadísticas multivariantes las distintas bases de datos olfativas disponibles en la bibliografía con distintos objetivos: clasificar descriptores olfativos, clasificar perfumes, investigar el número de dimensiones del espacio olfativo, interpretar las dimensiones psicológicas relevantes de este espacio perceptual, desarrollar mapas sensoriales de olores en general y de perfumes en particular, avanzar en la comprensión de los mecanismos involucrados en la percepción olfativa, etc.

Responsable: Manuel Zarzo