Líneas de investigación

Aprendizaje automático y ciencia de datos mediante programación matemática

Los avances de la última década en las herramientas de resolución de problemas de Optimización Matemática de diversa naturaleza, y sus implementaciones en los solvers de optimización comercial han abierto múltiples posibilidades con respecto a su aplicación en la Ciencia de Datos moderna. Algunas de las técnicas de Machine Learning más usadas actualmente para diseñar reglas de clasificación supervisada o no supervisada están basadas en modelos de optimización. Uno de los principales retos que nos planteamos es la incorporación de elementos que refuercen estas herramientas para una aplicación más precisa y adaptada a las bases de datos complejas con las que es necesario trabajar en la actualidad. Este objetivo es ambicioso, pues supone, por un lado, tratar con modelos de Optimización avanzados, usualmente de difícil resolución, así como el uso de base de datos de gran tamaño o con información relacional, en forma de red, que debe incorporarse a los modelos a desarrollar. Algunas de las líneas actuales de trabajo son: diseño de herramientas robustas para el ajuste de uno o más hiperplanos en problemas de regresión lineal, uso de distintas métricas en modelos de clasificación basados en Support Vector Machines, análisis de estrategias de clasificación basadas en arreglos de hiperpanos, selección de variables en modelos de clasificación, métodos kernel-free para la detección de outliers, modelos para la categorización de variables en clasificación supervisada, y familias de métodos robustos de clasificación para información no fiable.

Aproximación de distribuciones

Es bien sabido que en la práctica estadística y en el cálculo de probabilidades no siempre es posible calcular distribuciones exactas de los estadísticos o variables aleatorias implicadas, bien por desconocimiento de las mismas o bien por la complejidad computacional que supondría un cálculo exacto. Por este motivo es importante el uso de aproximaciones. En el estudio de las aproximaciones son de particular interés tanto el estudio teórico de las mismas para determinar su comportamiento y determinar a priori la precisión de las mismas para la mayor parte de las situaciones de interés así como la implementación de algoritmos para su obtención.

Métodos de la IA en Probabilidad y Estadística Matemática

Hoy en día existe una profusión de métodos bajo la denominación IA (Artificial Intelligence), algunos de los cuáles son variantes o reescritura de métodos anteriormente conocidos pero que han adquirido especial relevancia por las exitosas aplicaciones de la IA a diversas áreas de la ciencia y la tecnología. En esta línea de investigación, proponemos utilizar esta nueva óptica para enfocar diversos problemas que aporta la IA a la resolución de ciertos problemas, principalmente de optimización en probabilidad y estadística donde la forma funcional de la función objetivo no pueda ser escrita explícitamente, pero cuyo cálculo pueda ser obtenido mediante relaciones de propagación a través de un grafo de un modo similar a como funciona una red neuronal.

Optimization in Image Reconstruction using Electron Tomography

Electron Tomography (ET) is a well-known technique widely used for reconstructing 3D structures from tilt series of 2D-projections of a sample. ET has become the primary imaging tool in Materials Science for the reconstruction of 3D materials measured at the nanometer (nm) scale. Nowadays, the rapid advances in Nanoscience and Nanotechnologies are providing new nanomaterials with a wide range of applications in environmental protection, new green energy sources, photonics and catalysis, among others. The usefulness of these new materials strongly depends on the ability of controlling their structure and morphology at the nm scale, given that many of their physical and chemical properties are highly dependent on the shapes exhibited by their components. In this regard, ET has become a powerful tool to rationalize the materials properties in 3D, see Midgley and Dunin-Borkowski (2009); Nicoletti et al. (2013). The projections recorded in ET are inputs used in the reconstruction of a given volume. To avoid this deleterious effect, produce by the electron beams, to obtain each projection, the number of projections is often limited during the experiment, which may also result in a reduction of the reconstruction quality. In this context, the efforts in ET have aimed not only at improving the reliability of the information recorded by microscopes. In this regard, most recent methods are based on so-called Compressed Sensing. In particular, algorithms aiming at Total Variation Minimization (TVM) have proven to be very efficient (Li et al., 2013; Goris et al., 2012; Luo et al., 2018). Our goal in this application, is to propose a reconstruction optimization model based on the TVM paradigm but using different norms to obtain better reconstruction with a lower number of projections. For this reason, the alternative optimization models taking into account total variation should be proposed and efficient algorithms to obtain good solutions with smaller number of projections are demanded. After an image is reconstructed, image segmentation process should be carried out to identify particles or elements in this image. The goal of segmentation is to simplify and/or change the representation of an image into something that is more meaningful and easier to analyze. Image segmentation is typically used to locate objects and boundaries (lines, curves, etc.) in images. More precisely, image segmentation is the process of assigning a label to every pixel in an image such that pixels with the same label share certain characteristics. Therefore, the segmentation process implies a deep clustering analysis of the image under study. A selection of suitable criteria for the correct segmentation that allow the researcher to identify the particles under study. We will propose robust criteria that allow us to obtain a flexible, high-quality segmentation that can be adapted to different types of experiments. Since the number of pixels considered in the image is huge, the goal is that the resulting optimization problem is manageable and also the solution method proposed should be efficient producing high-quality segmentation in a reasonable time.

Complex Network Optimization and Analysis

The integration of the tools applied to the optimization and network design problems on complex networks with those coming from artificial intelligence is an important challenge. So far, each of these areas has been developed independently, but the size and complexity of the available information nowadays demands new methodologies for their analysis. For this aim, a new methodological paradigm to solve combinatorial optimization problems will be introduced. The cornerstone of the paradigm is mathematical programming (MP) (and math-heuristics specifically) complemented by techniques from artificial intelligence, such as constraint programming and machine learning, which will enhance the MP capability to work with substructures and to learn from data. The main idea behind the paradigm is the decomposition of a problem through the (explicit and implicit) identification of suitable subproblems. Revolutionizing both the way subproblems are constructed and the way promising variables (i.e., variables that will be selected in the optimal solution of the problem) are identified, if successful, would represent a real breakthrough for tackling complex combinatorial optimization problems via their mathematical formulation. Among others, this we focus on the analysis of challenging applications in automatic design of pipeline networks, bilevel (hierarchical) infrastructure models and transportation of goods and people.

Decomposition methods in Combinatorial Optimization

Some Operations Research models might have a huge number of variables and/or constraints. For this reason, during last decades decomposition methods have been considered as an important tool. Benders’ decomposition lets us manage a big number of constraints, while column generation is a good option to solve models with many variables as it occurs with set partitioning formulations, for instance. In both cases, the task is even harder when binary or integer variables appear. The good handling of the solvers that nowadays are available lets us develop complex mathematical procedures to solve difficult and interesting problems. This is the case of the branch-and-price or the branch-price-and-cut algorithms which have been used successfully to solve data analysis or location problems.

Problemas de localización

De forma general, un problema de localización consiste en determinar la posición de uno o más servidores que optimicen alguna medida de efectividad con respecto a un conjunto de puntos de demanda (usualmente también es necesario establecer la asignación de los puntos de demanda a los centros de servicios seleccionados). La teoría de la localización es una disciplina con entidad propia que se enmarca en el ámbito de las matemáticas, aunque mantiene vínculos importantes desde su origen con otras disciplinas como la ingeniería, la economía y en particular con la localización industrial. Cabe resaltar la variedad de contextos en los que se presentan aplicaciones para los distintos tipos de problemas de localización, así como las implicaciones económicas para el adecuado funcionamiento de las organizaciones que las decisiones sobre ubicaciones de sus centros de servicios pueden tener. Decisiones que pueden ser tanto de tipo estratégico, como la localización de servicios de emergencias, aeropuertos, colegios, líneas de metro, centros de distribución, vertederos, etc., como operacional, como el número y tamaño de los servicios a ubicar, la asignación de clientes a centros de servicio, diseño de rutas, compra de vehículos de reparto, etc.

Tomografía y programación matemática

El proceso de reconstrucción de partículas mediante la implementación de modelos matemáticos de optimización, a partir de imágenes obtenidas cuando haces de electrones emitidos por un microscopio atraviesa dicha partícula, es denominado Tomografía electrónica. En los últimos años, se ha producido un importante desarrollo de modelos matemáticos para reconstruir objetos de tamaño nanométrico dentro de la Tomografía electrónica. Los datos de entrada en dichos modelos de reconstrucción reciben el nombre de proyecciones, las cuales son imágenes bidimensionales obtenidas a partir de la partícula tridimensional que se desea reconstruir digitalmente, la cual es atravesada por haces de electrones emitidos por un microscopio desde diferentes ángulos de inclinación. El principio físico de la tomografía fue propuesto por el matemático austriaco Johann Radon, demostrando en Radon (1917) que la imagen tridimensional de un objeto se poda reconstruir a partir de un numero infinito de proyecciones bidimensionales. En los años setenta, el físico inglés llamado Godfrey Hounseld trabajo desarrollando un corte tomográfico sectorial sobre la cabeza de un ser humano, convirtiéndose en el creador de un prototipo de tomografía computerizada aplicable a la medicina, lo que le supuso en 1979 el Nobel de Medicina. A partir de aquí, la tomografía computerizada protagonizó un gran desarrollo

Secuenciación

Una de las etapas a considerar dentro de la llamada gestión de la cadena de suministro, o Supply Chain Management en inglés, es la programación de la producción. A su vez, dentro de la programación de la producción, la secuenciación de máquinas que trabajan en paralelo en un mismo taller es un problema de suma importancia, no solo a nivel académico sino también en el mundo empresarial. Esos problemas surgen para encontrar la mejor manera de organizar las tareas con el objetivo de optimizar un cierto objetivo. Además, en los últimos años está tomando una mayor importancia aquellos trabajos de secuenciación en los que, además de las máquinas que procesan los trabajos, es necesario contar con personal cualificado para manejar dichas máquinas, lo cual añade no solo realismo, sino también complejidad a los problemas tratados.