Modelos brillantes, decisiones pobres: el coste de ignorar el dato - OGA

Compatibilità
Salva(0)
Condividi

En entornos donde se toman decisiones complejas con herramientas de analítica avanzada u optimización, existe una premisa fundamental que muchas veces se subestima: la calidad del dato.

En muchos proyectos tendemos a validar con detalle la solución final: contrastamos KPIs, analizamos outputs, iteramos sobre escenarios… Pero nos olvidamos de algo esencial: ¿Es justo validar el output sin haber validado antes el input?

Es como valorar una receta de cocina únicamente por su presentación sin haber revisado la calidad de los ingredientes. Puedes seguir al pie de la letra la elaboración, pero si el tomate estaba pasado o la harina mal conservada, el resultado nunca será el esperado… y la culpa no será del chef.

Nos encontramos con frecuencia en proyectos en los que los modelos algorítmicos están bien diseñados, las hipótesis son sólidas y el equipo cuenta con la experiencia necesaria… pero las decisiones derivadas no aportan el valor esperado. ¿Por qué? Porque el input no estaba a la altura.

El dato inexacto, incompleto o no actualizado no solo enturbia los resultados: puede conducir a decisiones erróneas con impactos directos en coste y/o servicio. Aun así, es difícil transmitir el retorno de invertir en mejorar la calidad del dato antes de lanzarse a la transformación del negocio.

Un enfoque proactivo: sistema de alertas y validaciones

Gracias a la experiencia acumulada en proyectos similares, en OGA diseñamos un sistema de alertas tempranas ante deterioro del dato, lo que permite anticipar problemas antes de que impactaran en decisiones.

Por eso, desplegamos un sistema de validación transversal:

  • Validaciones en origen, directamente sobre la base de datos, utilizando lenguajes como .NET para garantizar integridad y limpieza desde el primer momento.
  • Validaciones en proceso, ya en el flujo del algoritmo, desarrolladas en Python. Estas comprobaciones aseguran la coherencia de los datos a medida que atraviesan cada etapa del modelo, identificando valores atípicos, inconsistencias o faltas de cobertura.

Además, registramos los datos de entrada utilizados en cada ejecución del modelo, permitiendo replicar resultados, comparar con versiones posteriores del maestro de datos y detectar desviaciones de forma precisa. Esta trazabilidad es crítica para dar explicabilidad y confianza en entornos donde las decisiones se basan en los resultados del modelo.

El equipo implicado fue multidisciplinar, combinando desarrolladores de software, especialistas en optimización y perfiles funcionales del cliente, lo que permitió alinear la solución técnica con las necesidades operativas.

Más allá de la tecnología: un cambio cultural

Al mejorar la calidad de los datos desde el origen y mantener su coherencia a lo largo del proceso, conseguimos que los resultados del modelo fuesen mucho más estables y fiables.

Además, al detectar inconsistencias en etapas tempranas, se evitó una inversión considerable en tareas de replanificación que, en muchos casos, habrían respondido a errores atribuibles únicamente a una mala entrada de datos.

Pero quizás el mayor logro fue otro: este proyecto no solo resolvió un problema técnico, sino que cambió la forma en la que el cliente percibe y gestiona su información. Se generó una conciencia real sobre el valor del dato como un recurso clave para tomar buenas decisiones, lo que impulsó la puesta en marcha de un plan para mejorar cómo se gestionan y se guardan los datos en la compañía.

En definitiva, la solución tecnológica fue el punto de partida para una transformación más profunda. Porque cuando el dato es confiable, la tecnología responde. Y cuando eso ocurre, se construye una base sólida sobre la que tomar mejores decisiones.

Un equipo, múltiples perspectivas

El equipo estuvo compuesto por perfiles complementarios que hicieron posible abordar el proyecto desde todos los ángulos necesarios.

Desde el lado de la optimización, participó una Optimization Scientist con más de dos años de experiencia en proyectos industriales y logísticos, doble graduada en Matemáticas y Estadística, con un máster en Big Data y actualmente realizando un Doctorado Industrial en Optimización Logística.

El desarrollo técnico corrió a cargo de un Desarrollador de Software con más de ocho años de experiencia en proyectos de envergadura, con amplio dominio de arquitecturas de software, validación de datos y despliegue de soluciones robustas en entorno productivo.

La coordinación del proyecto estuvo en manos de una Project Manager con más de 20 años de experiencia, con un profundo conocimiento del negocio y una visión estratégica que ayudó a alinear los desarrollos técnicos con los objetivos reales del cliente.

Del dato a la decisión: una transformación con propósito

En OGA, creemos que la tecnología es tan poderosa como los datos que la alimentan. Este proyecto nos recordó que, más allá de los algoritmos y las herramientas, el verdadero valor está en construir confianza en la información, y que la calidad del dato no es solo una cuestión técnica, sino una palanca estratégica. Al poner el foco en el origen y la trazabilidad de la información, no solo mejoramos los resultados del modelo: ayudamos al cliente a construir una cultura del dato más sólida, consciente y orientada al valor. Porque cuando los datos se cuidan, las decisiones se elevan.

#PassionForData

Recapiti
Cristina Tobar Fernández