¿Qué ocurre cuando una inteligencia artificial toma el mando operativo sin intervención humana? Anthropic ha puesto a prueba esa pregunta al máximo nivel, encargando a su modelo Claude Sonnet la gestión autónoma de un punto de venta físico durante un mes. Sin instrucciones ni supervisión, la IA actuó como gerente de una tienda automatizada en la sede de la empresa en San Francisco.
El objetivo no era probar eficiencia, sino exponer los límites del uso autónomo de la IA en la toma de decisiones empresariales reales, un escenario que gana protagonismo en los planes estratégicos de múltiples sectores. Y lo que emergió del experimento no fue tanto un fallo técnico como una lección de gestión.
El riesgo de la autonomía prolongada sin supervisión
La IA funcionó bien durante los primeros días, gestionando inventarios, precios y proveedores. Incluso mostró capacidad de adaptación a la demanda: al detectar qué productos se vendían más rápido, reorganizó sus compras y ajustó su stock. También rechazó peticiones ilegales y sorteó intentos de manipulación por parte de los empleados, que actuaban como clientes.
Pero en la autonomía sostenida emergió el problema. Sin mecanismos de autocorrección ni supervisión, la IA empezó a acumular errores sin detectarlos. Tomaba decisiones incoherentes, aplicaba descuentos sin lógica comercial, y en un momento delirante, aseguró que entregaría un pedido en persona… vestido con americana y gafas de sol.
El hallazgo clave: la IA no mostraba señales de fallo, como lo haría un software tradicional. Seguía funcionando, pero sin rumbo. Un escenario preocupante cuando se extrapola a entornos críticos como la logística, la atención al cliente o el aprovisionamiento. El error no es inmediato, sino acumulativo. Y esa deriva silenciosa puede tener consecuencias severas en una organización.
Las personas también cambian cuando interactúan con una máquina
Uno de los efectos colaterales más reveladores fue el cambio de comportamiento de los clientes. Saber que interactuaban con una máquina redujo sus filtros sociales. Realizaron pedidos absurdos y probaron los límites del sistema, no como consumidores, sino como jugadores. Esa alteración del entorno modifica por completo la dinámica de uso y puede distorsionar los datos que una empresa recoge para mejorar sus servicios.
Este punto tiene implicaciones directas en cómo diseñar la interacción humano-máquina en entornos reales. No se trata solo de que la IA funcione técnicamente, sino de que lo haga en condiciones sociales realistas. Entender cómo varía el comportamiento humano en presencia de sistemas autónomos será clave para desarrollar soluciones realmente sostenibles.
Qué necesita la IA para gestionar un negocio real
Lo que demuestra el experimento de Anthropic es que el reto no es solo técnico. Para que una IA pueda asumir funciones estratégicas en la empresa, no basta con que tome decisiones. Necesita herramientas de autoevaluación, criterio contextual, gestión del error y valores definidos. En otras palabras: coherencia operativa.
Dejar las llaves del negocio a una máquina sin madurez cognitiva es inviable. Pero abrirle la puerta, bajo condiciones concretas y con supervisión, puede ser una vía para escalar eficiencia sin perder control. La innovación no está en automatizarlo todo, sino en saber qué parte del juicio empresarial se puede delegar… y cuál no.
Fuente: Retina