Líneas de investigación

Aprendizaje automático y ciencia de datos mediante programación matemática

Los avances de la última década en las herramientas de resolución de problemas de Optimización Matemática de diversa naturaleza, y sus implementaciones en los solvers de optimización comercial han abierto múltiples posibilidades con respecto a su aplicación en la Ciencia de Datos moderna. Algunas de las técnicas de Machine Learning más usadas actualmente para diseñar reglas de clasificación supervisada o no supervisada están basadas en modelos de optimización. Uno de los principales retos que nos planteamos es la incorporación de elementos que refuercen estas herramientas para una aplicación más precisa y adaptada a las bases de datos complejas con las que es necesario trabajar en la actualidad. Este objetivo es ambicioso, pues supone, por un lado, tratar con modelos de Optimización avanzados, usualmente de difícil resolución, así como el uso de base de datos de gran tamaño o con información relacional, en forma de red, que debe incorporarse a los modelos a desarrollar. Algunas de las líneas actuales de trabajo son: diseño de herramientas robustas para el ajuste de uno o más hiperplanos en problemas de regresión lineal, uso de distintas métricas en modelos de clasificación basados en Support Vector Machines, análisis de estrategias de clasificación basadas en arreglos de hiperpanos, selección de variables en modelos de clasificación, métodos kernel-free para la detección de outliers, modelos para la categorización de variables en clasificación supervisada, y familias de métodos robustos de clasificación para información no fiable.

Aproximación de distribuciones

Es bien sabido que en la práctica estadística y en el cálculo de probabilidades no siempre es posible calcular distribuciones exactas de los estadísticos o variables aleatorias implicadas, bien por desconocimiento de las mismas o bien por la complejidad computacional que supondría un cálculo exacto. Por este motivo es importante el uso de aproximaciones. En el estudio de las aproximaciones son de particular interés tanto el estudio teórico de las mismas para determinar su comportamiento y determinar a priori la precisión de las mismas para la mayor parte de las situaciones de interés así como la implementación de algoritmos para su obtención.

Métodos de la IA en Probabilidad y Estadística Matemática

Hoy en día existe una profusión de métodos bajo la denominación IA (Artificial Intelligence), algunos de los cuáles son variantes o reescritura de métodos anteriormente conocidos pero que han adquirido especial relevancia por las exitosas aplicaciones de la IA a diversas áreas de la ciencia y la tecnología. En esta línea de investigación, proponemos utilizar esta nueva óptica para enfocar diversos problemas que aporta la IA a la resolución de ciertos problemas, principalmente de optimización en probabilidad y estadística donde la forma funcional de la función objetivo no pueda ser escrita explícitamente, pero cuyo cálculo pueda ser obtenido mediante relaciones de propagación a través de un grafo de un modo similar a como funciona una red neuronal.

Optimization in Image Reconstruction using Electron Tomography

Electron Tomography (ET) is a well-known technique widely used for reconstructing 3D structures from tilt series of 2D-projections of a sample. ET has become the primary imaging tool in Materials Science for the reconstruction of 3D materials measured at the nanometer (nm) scale. Nowadays, the rapid advances in Nanoscience and Nanotechnologies are providing new nanomaterials with a wide range of applications in environmental protection, new green energy sources, photonics and catalysis, among others. The usefulness of these new materials strongly depends on the ability of controlling their structure and morphology at the nm scale, given that many of their physical and chemical properties are highly dependent on the shapes exhibited by their components. In this regard, ET has become a powerful tool to rationalize the materials properties in 3D, see Midgley and Dunin-Borkowski (2009); Nicoletti et al. (2013). The projections recorded in ET are inputs used in the reconstruction of a given volume. To avoid this deleterious effect, produce by the electron beams, to obtain each projection, the number of projections is often limited during the experiment, which may also result in a reduction of the reconstruction quality. In this context, the efforts in ET have aimed not only at improving the reliability of the information recorded by microscopes. In this regard, most recent methods are based on so-called Compressed Sensing. In particular, algorithms aiming at Total Variation Minimization (TVM) have proven to be very efficient (Li et al., 2013; Goris et al., 2012; Luo et al., 2018). Our goal in this application, is to propose a reconstruction optimization model based on the TVM paradigm but using different norms to obtain better reconstruction with a lower number of projections. For this reason, the alternative optimization models taking into account total variation should be proposed and efficient algorithms to obtain good solutions with smaller number of projections are demanded. After an image is reconstructed, image segmentation process should be carried out to identify particles or elements in this image. The goal of segmentation is to simplify and/or change the representation of an image into something that is more meaningful and easier to analyze. Image segmentation is typically used to locate objects and boundaries (lines, curves, etc.) in images. More precisely, image segmentation is the process of assigning a label to every pixel in an image such that pixels with the same label share certain characteristics. Therefore, the segmentation process implies a deep clustering analysis of the image under study. A selection of suitable criteria for the correct segmentation that allow the researcher to identify the particles under study. We will propose robust criteria that allow us to obtain a flexible, high-quality segmentation that can be adapted to different types of experiments. Since the number of pixels considered in the image is huge, the goal is that the resulting optimization problem is manageable and also the solution method proposed should be efficient producing high-quality segmentation in a reasonable time.

Complex Network Optimization and Analysis

The integration of the tools applied to the optimization and network design problems on complex networks with those coming from artificial intelligence is an important challenge. So far, each of these areas has been developed independently, but the size and complexity of the available information nowadays demands new methodologies for their analysis. For this aim, a new methodological paradigm to solve combinatorial optimization problems will be introduced. The cornerstone of the paradigm is mathematical programming (MP) (and math-heuristics specifically) complemented by techniques from artificial intelligence, such as constraint programming and machine learning, which will enhance the MP capability to work with substructures and to learn from data. The main idea behind the paradigm is the decomposition of a problem through the (explicit and implicit) identification of suitable subproblems. Revolutionizing both the way subproblems are constructed and the way promising variables (i.e., variables that will be selected in the optimal solution of the problem) are identified, if successful, would represent a real breakthrough for tackling complex combinatorial optimization problems via their mathematical formulation. Among others, this we focus on the analysis of challenging applications in automatic design of pipeline networks, bilevel (hierarchical) infrastructure models and transportation of goods and people.

Decomposition methods in Combinatorial Optimization

Some Operations Research models might have a huge number of variables and/or constraints. For this reason, during last decades decomposition methods have been considered as an important tool. Benders’ decomposition lets us manage a big number of constraints, while column generation is a good option to solve models with many variables as it occurs with set partitioning formulations, for instance. In both cases, the task is even harder when binary or integer variables appear. The good handling of the solvers that nowadays are available lets us develop complex mathematical procedures to solve difficult and interesting problems. This is the case of the branch-and-price or the branch-price-and-cut algorithms which have been used successfully to solve data analysis or location problems.

Problemas de localización

De forma general, un problema de localización consiste en determinar la posición de uno o más servidores que optimicen alguna medida de efectividad con respecto a un conjunto de puntos de demanda (usualmente también es necesario establecer la asignación de los puntos de demanda a los centros de servicios seleccionados). La teoría de la localización es una disciplina con entidad propia que se enmarca en el ámbito de las matemáticas, aunque mantiene vínculos importantes desde su origen con otras disciplinas como la ingeniería, la economía y en particular con la localización industrial. Cabe resaltar la variedad de contextos en los que se presentan aplicaciones para los distintos tipos de problemas de localización, así como las implicaciones económicas para el adecuado funcionamiento de las organizaciones que las decisiones sobre ubicaciones de sus centros de servicios pueden tener. Decisiones que pueden ser tanto de tipo estratégico, como la localización de servicios de emergencias, aeropuertos, colegios, líneas de metro, centros de distribución, vertederos, etc., como operacional, como el número y tamaño de los servicios a ubicar, la asignación de clientes a centros de servicio, diseño de rutas, compra de vehículos de reparto, etc.

Tomografía y programación matemática

El proceso de reconstrucción de partículas mediante la implementación de modelos matemáticos de optimización, a partir de imágenes obtenidas cuando haces de electrones emitidos por un microscopio atraviesa dicha partícula, es denominado Tomografía electrónica. En los últimos años, se ha producido un importante desarrollo de modelos matemáticos para reconstruir objetos de tamaño nanométrico dentro de la Tomografía electrónica. Los datos de entrada en dichos modelos de reconstrucción reciben el nombre de proyecciones, las cuales son imágenes bidimensionales obtenidas a partir de la partícula tridimensional que se desea reconstruir digitalmente, la cual es atravesada por haces de electrones emitidos por un microscopio desde diferentes ángulos de inclinación. El principio físico de la tomografía fue propuesto por el matemático austriaco Johann Radon, demostrando en Radon (1917) que la imagen tridimensional de un objeto se poda reconstruir a partir de un numero infinito de proyecciones bidimensionales. En los años setenta, el físico inglés llamado Godfrey Hounseld trabajo desarrollando un corte tomográfico sectorial sobre la cabeza de un ser humano, convirtiéndose en el creador de un prototipo de tomografía computerizada aplicable a la medicina, lo que le supuso en 1979 el Nobel de Medicina. A partir de aquí, la tomografía computerizada protagonizó un gran desarrollo

Secuenciación

Una de las etapas a considerar dentro de la llamada gestión de la cadena de suministro, o Supply Chain Management en inglés, es la programación de la producción. A su vez, dentro de la programación de la producción, la secuenciación de máquinas que trabajan en paralelo en un mismo taller es un problema de suma importancia, no solo a nivel académico sino también en el mundo empresarial. Esos problemas surgen para encontrar la mejor manera de organizar las tareas con el objetivo de optimizar un cierto objetivo. Además, en los últimos años está tomando una mayor importancia aquellos trabajos de secuenciación en los que, además de las máquinas que procesan los trabajos, es necesario contar con personal cualificado para manejar dichas máquinas, lo cual añade no solo realismo, sino también complejidad a los problemas tratados.

Optimización Matemática para el Análisis de Redes de Reacciones Químicas y sus implicaciones en el Origen de la Vida

Las redes de reacciones químicas (CRN, por sus siglas en inglés) son un marco general para describir sistemas complejos donde entidades (especies) de diversos tipos interactúan (reaccionan) y se transforman en otras entidades (especies). Matemáticamente, las CRN se pueden identificar con multi-hipergrafos dirigidos, cuyo estudio implica una alta complejidad computacional en relación a los grafos estándar. El análisis de CRN implica diversos retos en distintas disciplinas científicas, como la bioquímica, la ecología, la economía, así como en aquellas relacionadas con el Origen de la Vida. Los vértices y los hiperarcos en una CRN se denominan especies y reacciones, respectivamente, y toman la interpretación de moléculas y reacciones en química; organismos e interacciones en ecología; así como bienes e industrias en economía. Para comprender los orígenes de la vida, las CRN se emplean para comprender la transición de la química a la biología. Algunas de las líneas de trabajo en este grupo comprenden la formalización de la noción de autocatálisis, como elemento crucial en el estudio de pequeños conjuntos de especies y reacciones autoproducidas, y que podrían ser la explicación al Origen de la Vida. Algunas de las contribuciones de este grupo a esta temática son: el diseño de algoritmos basados en modelos de Optimización Matemática para la generación de subredes autocatalíticas minerales de una CRN, detección de subredes con alta tasa de crecimiento, o construcción de redes autocatalíticas kineticamente factibles.

Fundamentos Matemáticos de la Optimización Cónica

La importancia de la Optimización Cónica ha sido más que probada en la última década, por la gran cantidad de aplicaciones en distintas áreas, desde la Logística al Machine Learning. La extensión natural de los problemas de Programación Lineal definidos sobre el cono ortante positivo a otros conos (como el cono semidefinido o el cono de Lorentz) ha implicado una serie de retos, que van desde el diseño de barreras para estos conos, como a la representación de conos más generales en base a estos. Este grupo viene implicado en el estudio de estos problemas desde hace años, motivado por la incorporación de estos conos en diversos problemas relacionados con la Localización o el Machine Learning. En concreto, el grupo ha realizado aportaciones en la representación de conos de orden p y generalizados a través de conos SOC, así como la detección de representaciones como sumas de cuadrados de circuitos en problemas de optimización polinomios, facilitando su resolución como problema sobre el cono de las matrices semidefinidas (SDP). El grupo ha introducido el concepto de Mediated Graph como elemento conector entre la herramientas de optimización cónica continua y las herramientas de optimización lineal entera, lo que permite establecer un paralelismo computacional entre ambas ramas de la Optimización Matemática.

Optimización Matemática y Cambio Energético

La descarbonización de la energía se ha convertido en una prioridad global crítica en los últimos años debido a la urgente necesidad de combatir el cambio climático. La mayoría de las organizaciones mundiales han reconocido la importancia de la transición a fuentes de energía más limpias y sostenibles en los próximos años para reducir las emisiones de gases de efecto invernadero. Se han firmado diferentes acuerdos para promover este cambio. En concreto, las Naciones Unidas, a través de sus Objetivos de Desarrollo Sostenible, ha establecido diferentes metas para garantizar una energía asequible, fiable, sostenible y moderna para 2030. La Agencia Internacional de la Energía (AIE) ha promovido activamente los esfuerzos de descarbonización proporcionando recomendaciones de políticas, realizando investigaciones y facilitando la cooperación internacional. Además, el Grupo Intergubernamental de Expertos sobre el Cambio Climático (IPCC) ha sido fundamental para evaluar los impactos del cambio climático y destacar la importancia de descarbonizar el sector energético. En 2019, la Comisión Europea presentó el Pacto Verde Europeo (EGD), la hoja de ruta que Europa debe seguir para la implementación de las Agendas de Desarrollo Sostenible de las Naciones Unidas para 2030 y 2050, diseñadas para mitigar los efectos del cambio climático. Estas organizaciones han tomado diversas medidas, entre ellas abogar por inversiones en energías renovables, promover la eficiencia energética, fomentar el uso de vehículos eléctricos y apoyar el desarrollo de tecnologías innovadoras como la captura y almacenamiento de carbono. Estos esfuerzos colectivos de las organizaciones mundiales son cruciales para impulsar la transición global hacia un futuro bajo en carbono y mitigar los efectos adversos del cambio climático.
 
Uno de los retos es descarbonizar el sistema energético mediante el desarrollo de un nuevo sector eléctrico basado en fuentes renovables. Una de las principales estrategias para lograr el objetivo propuesto es el uso del biogás como fuente de energía renovable alternativa a las energías basadas en el carbono, ya que contribuye a la reducción de gases de efecto invernadero pero también al desarrollo de la economía circular a través de la digestión anaeróbica de residuos orgánicos de diferentes fuentes y su transformación en combustible. Como el biometano es la misma molécula que el gas natural, se puede distribuir a través de las redes de distribución de gas existentes, facilitando la transición del gas natural a la energía del biogás. Así, la instalación de plantas de digestión anaeróbica para la conversión de residuos orgánicos y estiércol de ganado en biometano ha ganado protagonismo en los últimos años como una solución sostenible de conversión de residuos en energía. 
 
El análisis de los sistemas logísticos que sustentan la implementación de diferentes modos de energía, en particular el biogás, es de suma importancia para garantizar la integración exitosa y sostenible de las fuentes de energía renovable en nuestro panorama energético global. El biogás, derivado de desechos orgánicos mediante digestión anaeróbica, presenta una alternativa prometedora a los combustibles fósiles convencionales. Sin embargo, el éxito de su implementación supone de abordar desafíos logísticos complejos. Este grupo ha realizado aportaciones relevantes en este problema logístico, analizando el diseño de la compleja cadena de suministro tras esta situación. Ha introducido el problema «Waste-to-Biomethane Logistic Problem» (W2BLP) que define el marco general de implementación de este sistema, como un problema de Optimización Matemática que ayuda a la toma de las decisiones tras la implementación eficiente de este tipo de sistemas (localización de los distintos elementos involucrados, diseño de plan de distribución asociados, …). Sin embargo, existen numerosas problemáticas tras el análisis de este tipo de modelos, como la gestión de la incertidumbre, el diseño de rutas de recolección de biowaste, la búsqueda de políticas del envío final del biogas, reparto del biogas entre los distintos agentes involucrados, etc.