Agentes LLM aplicados al análisis avanzado de problemas de optimización. - OGA

Compatibilité
Sauvegarder(0)
partager

Cómo aplicar agentes LLM con arquitecturas RAG para interpretar documentación técnica compleja, acelerar la formulación de problemas de optimización y reducir drásticamente el time-to-insight en entornos industriales.

El reto

La correcta formulación de un problema de optimización en un entorno industrial real es, hoy en día, uno de los pasos más críticos y exigentes dentro del desarrollo de soluciones analíticas. Antes de construir un modelo matemático o diseñar un algoritmo, es necesario comprender en profundidad el proceso del cliente: sus restricciones operativas, requisitos regulatorios, objetivos de negocio y particularidades del sector.

La complejidad y heterogeneidad de los casos industriales, con restricciones particulares que es necesario captar con un nivel de detalle fine-grained para satisfacer todos los requerimientos del problema, implican una fase inicial de análisis en todo proyecto dedicada a la revisión de documentación extensa y altamente técnica, lo que puede traducirse en ciclos largos de definición y validación. En consecuencia, retrasar la identificación conlleva a la dilatación de todo el ciclo de desarrollo analítico, desde la modelización hasta la experimentación, el diseño de algoritmos y la implantación.

De aquí nace nuestro reto tecnológico: acelerar esta fase inicial de comprensión y definición, proporcionando una base sólida y rigurosa que permita avanzar más rápido hacia la construcción de soluciones de optimización adaptadas a las necesidades del cliente.

Solución tecnológica

El desarrollo de nuestra solución supone abordar un reto tecnológico complejo, y para ello decidimos apoyarnos en inteligencia artificial avanzada como palanca clave. El objetivo es construir agentes capaces de interpretar documentación técnica heterogénea, razonar de forma estructurada como un experto en Investigación Operativa y hacerlo de manera reproducible, escalable y rápida. Para ello hemos diseñado una arquitectura basada en LLMs que combina tres pilares clave: recuperación inteligente de información mediante RAG (Retrieval Augmented Generation), procesamiento semántico avanzado para garantizar precisión y trazabilidad en cada clasificación, y prompts cuidadosamente diseñados para los agentes de IA.

El gran bloque tecnológico consiste en dotar al sistema de capacidad para buscar, seleccionar y utilizar fragmentos de información relevantes dentro de documentos extensos, evitando que el LLM dependa únicamente de su conocimiento previo. Aquí resulta fundamental la implementación de un enfoque RAG (Retrieval-Augmented Generation). Las limitaciones inherentes a cualquier modelo pre-entrenado, especialmente su dependencia del conocimiento visto durante el entrenamiento, hacen imprescindible complementar al LLM con un mecanismo dinámico de recuperación de contexto. Para ello construimos un pipeline de extracción, segmentación y vectorización de texto mediante embeddings, que permiten representar cada fragmento como un punto en un espacio semántico de alta dimensión. Sobre estos embeddings se optimizan búsquedas por similitud, lo que proporciona un acceso extremadamente rápido a las secciones del documento que contienen la información más relevante para la consulta del modelo. En paralelo, incorporamos herramientas más tradicionales como la librería de vectores FAISS, especializada en la gestión de índices y acelerar las búsquedas, junto a técnicas híbridas que combinan similitudes léxicas y semánticas para aumentar la precisión.

La otra parte esencial del proyecto es la ingeniería de prompts, ya que los modelos de lenguaje requieren instrucciones altamente estructuradas para realizar tareas de análisis formal. Desarrollamos plantillas especializadas que guían al modelo paso a paso en la identificación de características operativas y en la búsqueda del estado del arte del dominio específico identificado. La iteración de este proceso experimental y profundamente técnico ha permitido transformar al LLM en un verdadero agente experto, capaz de justificar cada conclusión con un razonamiento verificable.

La solución final integra todo este ecosistema en un flujo coherente: el agente analiza el documento, recupera solo el contexto relevante, razona sobre él mediante prompts especializados y produce una clasificación formal del problema acompañada de una justificación estructurada. A ello se suma un módulo adicional de búsqueda bibliográfica, también basado en prompts cuidadosamente afinados siguiendo los criterios estándar de Web of Science para la recuperación de contenido científico de relevancia.

Todo ello se ha diseñado siguiendo principios de modularidad, reproducibilidad y eficiencia computacional, lo que permite adaptar este proyecto a retos futuros, como la generación automática del modelo matemático o metaheurísticas ad-hoc, sin rediseñar el sistema desde cero.

Impacto

El impacto principal es la reducción drástica de los tiempos de análisis, pasando de procesos prolongados y dependientes de conocimiento experto a un flujo sistematizado capaz de generar clasificaciones precisas en cuestión de minutos. Esta agilidad repercute directamente en la capacidad para evaluar más alternativas, poner en marcha más experimentos y reducir el time-to-insight, se logra una entrega más rápida de soluciones aplicables.

Esto permite a las organizaciones pasar antes de la fase de análisis a la fase de implementación, obteniendo resultados tangibles en menor tiempo: mejoras en eficiencia operativa, reducción de costes y una toma de decisiones más ágil basada en modelos rigurosos.

Además, el acceso sistemático al estado del arte científico garantiza que las soluciones propuestas estén alineadas con las metodologías más avanzadas, ofreciendo al cliente un nivel de innovación y robustez superior.

En conjunto, este enfoque contribuye a que los proyectos de optimización se traduzcan en un impacto directo en el rendimiento y competitividad del cliente, manteniendo siempre el rigor técnico y la calidad de la solución final.

Equipo

El proyecto está coordinado por nuestro AI Saff Engineer con gran experiencia en las soluciones de inteligencia artificial más novedosas.

El equipo de desarrollo está compuesto por Data y Optimization Scientists, con una base que combina la formación en Matemáticas junto con la experiencia en modelado de problemas dentro de la compañía, optimización avanzada e inteligencia artificial aplicada en entornos reales.

Links de referencia:

  1. Wasserkrug, S., Boussioux, L., den Hertog, D., Mirzazadeh, F., Birbil, Ş. I., Kurtz, J., & Maragno, D. (2025). Enhancing Decision Making Through the Integration of Large Language Models and Operations Research Optimization. Proceedings of the AAAI Conference on Artificial Intelligence39(27), 28643-28650. https://doi.org/10.1609/aaai.v39i27.35090
  2. Wasserkrug, S., Boussioux, L., & Sun, W. (2024). Combining large language models and OR/MS to make smarter decisions. In Tutorials in Operations Research: Smarter Decisions for a Better World (pp. 1-49). INFORMS. https://doi.org/10.1287/educ.2024.0275
Coordonnées
Dra. Nuria Gómez Vargas