Manuel Romero, CSO en Maisa, explicará en 'Talks' cómo la IA, además de responder, ahora, también trabaja. ceeim

Compatibilité
Sauvegarder(0)
partager

Los nuevos agentes de IA empiezan a ejecutar tareas reales y transformar procesos empresariales, tema que ocupará la intervención del ponente, quien profundizará en el papel de la tecnología como palanca de desarrollo empresarial. Será el próximo 13 de marzo, en CEEIM.

AI Talks reunirá el próximo viernes por la mañana a líderes empresariales, emprendedores y profesionales en un entorno donde la innovación y la tecnología se combinan para impulsar el desarrollo empresarial, siendo una oportunidad única para explorar el impacto de la inteligencia artificial (IA) en los negocios y descubrir cómo esta tecnología puede transformar procesos, mejorar la toma de decisiones y abrir nuevas oportunidades de mercado.

Entre los participantes del ‘AI Talks’ este año están Manuel Romero, quien  profundizará sobre ‘‘Visión y liderazgo en IA: claves para el crecimiento empresarial’. Es ingeniero informático y especialista en Machine Learning. Ha publicado más de 700 modelos de IA con millones de descargas, siendo uno de los principales contribuidores al mayor Hub de modelos abiertos. También ha participado en iniciativas como BigScience y BigCode. Actualmente, Romero es CSO en MAISA, donde lidera investigación e innovación en IA aplicada. Con él hemos hablado y en esta entrevista concedida a CEEIM comparte sus impresiones y experiencia en Inteligencia Artificial.

Entrevista

Pregunta (P). ¿En qué momento os disteis cuenta de que usar simplemente un LLM no era suficiente
para casos empresariales reales, y qué criterios técnicos os llevaron a diseñar vuestra
KPU como arquitectura diferenciada?

Respuesta (R). Bueno, digamos que tras mi experiencia entrenando modelos de este estilo (arquitectura Transformer) durante varios años, parecía obvio que al menos los LLMs o la IA “on top”
de esta arquitectura siempre tendría 3 problemas fundacionales:
1 – Alucinaciones
2- Límites de contexto
2- Up-to-date
Cuando conocí a David, él también lo tuvo claro y nos lanzamos a hacer prototipos en nuestro humilde laboratorio hasta que tuvimos humos que bautizamos como KPU que demostró que nuestra hipótesis era cierta al batir por muchos puntos a los LLMs SOTA de aquel momento.

P. ¿Cómo está estructurada internamente la KPU para transformar un modelo
generativo en un agente que ejecuta tareas multi-paso?

R. Hay dos grandes componentes: una unidad de razonamiento y otra de ejecución. Básicamente, la unidad de razonamiento descompone el problema/tarea en pequeñas instrucciones respaldadas por código que son ejecutadas, efectivamente, por esa unidad de ejecución. El resultado de ésta vuelve a la unidad de razonamiento que determina cuál es la siguiente instrucción. Opera de esa forma digamos en bucle hasta resolver el problema o tarea.

‘El LLM valida su hipótesis en código para cada uno de los pasos de los que consta la ejecución. Eso mitiga al máximo el riesgo de alucinaciones’.

P. ¿Cómo implementáis técnicamente el “Chain-of-Work” en producción? ¿Qué eventos,
decisiones, herramientas y estados registráis para garantizar auditabilidad y
explicabilidad?

 R. Bueno, digamos que al operar de la forma en la que comento en la pregunta anterior, al final de la ejecución lo que tengo es un script compuesto por un conjunto de pasos que al ser código son completamente deterministas. Ese conjunto de pasos genera una traza y de ahí la auditabilidad y trazabilidad del sistema.

Por otro lado, tenemos un componente al que pasamos esa traza (código) y le pasamos también la configuración del worker/agente y le decimos que si el procedimiento que se ve en código no coincide exactamente con lo que el usuario quería hacer, lo marque como error y diga dónde y por qué. Y por otro lado le decimos que si el output generado no se infiere 100% de la traza de código generada que también lo marque como erróneo. Así evitamos cualquier tipo de alucinación.

P. Muchos proyectos de IA mueren en el PoC. ¿Qué diferencias estructurales —arquitectura, datos, cultura, governance— permiten que un agente pase de
experimento a sistema crítico en cliente real?

R. Con respecto a lo que depende de la IA que sea “fiable”. Que se comporte de manera similar en diferentes ejecuciones, que no caiga el performance del worker/agente, que sea trazable, auditable.

Con respecto al producto: que sea seguro, escalable, tolerante a fallos (en este sentido ya está todo inventado).

‘Para surfear la ola de IA generativa y no morir en el intento, hay que ir añadiéndola poco a poco y con cabeza’

P. ¿Qué mecanismos concretos utilizáis para reducir alucinaciones y errores en entornos
de alta exigencia? ¿Reglas explícitas, validadores externos, lógica determinista,
supervisión humana, RAG estructurado?

R. Utilizamos lógica determinista, es decir, código de programación que va guiando al LLM de manera fiable para completar la tarea. Digamos que el LLM valida su hipótesis en código para cada uno de los pasos de los que consta la ejecución. Eso mitiga al máximo el riesgo de alucinaciones.

P. ¿Cómo evolucionarán los agentes empresariales en los próximos cinco años? ¿Qué
capacidades marcarán la diferencia competitiva: planificación autónoma, memoria
persistente, razonamiento profundo, multimodalidad, coordinación multi-agente?

R. Yo creo que todavía hay muchos retos. El principal de ellos es el aprendizaje continuo. Luego está el tema de la memoria. Los RAGs son como un parte al contexto limitado de los LLMs funcionan bien para determinados casos de uso pero no para todos. Y finalmente, la orquestación de sistemas multiagente también es un reto interesante.

P. ¿Cómo se tienen que preparar las empresas para poder surfear la ola de IA generativa
y no morir en el intento?

R. Pues hay que ir añadiéndola poco a poco y con cabeza. Empezando por las partes de menos riesgo y que más puede aportar valor como dar asistentes de IA a los empleados, herramientas de programación asistidas por IA. Ir metiendo agentes/automatizaciones que usan IA en partes de procesos de manera muy controlada. No hay que dar total autonomía desde el día cero. Diseñar pipelines de CI/CD…

‘AI TALKS 2026’

Manuel Romero intervendrá en esta cita este viernes 13 de marzo, que será en el Centro Europeo de Empresas e Innovación de Murcia (CEEIM), en colaboración con Será en el Centro Europeo de Empresas e Innovación de Murcia (CEEIM), que organiza este evento en colaboración con  el Centro Tecnológico de las TIC (CENTIC) y THINKIA, empresa AI-Native especializada en integrar la inteligencia artificial en el núcleo operativo de las compañías. Quienes asistan encontrarán un espacio de aprendizaje, intercambio de ideas y generación de conexiones estratégicas, potenciando el ecosistema empresarial y tecnológico de la Región de Murcia. Para consultar el programa: https://www.ceeim.es/es/ai-talks-2026-mostrara-como-convertir-la-inteligencia-artificial-en-ventaja-competitiva-real/

Coordonnées
Comunicación CEEIM