Tempo di Lettura: 7minuti
Nel romanzo di Mary Shelley, il dottor Frankenstein non fallisce perché la sua creatura è stupida. Fallisce perché è intelligente abbastanza da agire, ma non abbastanza da capire le conseguenze. Il mostro non è malvagio. È semplicemente fuori controllo.
Duecento anni dopo, nelle sale riunioni di mezzo mondo, si sta ripetendo lo stesso errore. Solo che questa volta il mostro non ha bulloni nel collo. Ha un’API, un accesso ai tuoi sistemi aziendali, e la capacità di prendere decisioni autonome mentre tu dormi.
Benvenuto nell’era degli agenti AI, ribelli digitali. Il vostro dipendente perfetto che non chiede ferie, non si lamenta dello stipendio, lavora 24 ore su 24. L’unico problema? Nessuno sa davvero cosa stia facendo.
La promessa irresistibile
Il pitch è seducente. Te lo stanno facendo in questo momento, in qualche conferenza o webinar: “Immagina un assistente che gestisce le email dei clienti, prenota appuntamenti, analizza documenti, esegue ordini. Tutto in autonomia. Tutto senza supervisione. Tutto a una frazione del costo di un dipendente.”
Il mercato degli agenti AI valeva 7,9 miliardi di dollari nel 2024. Le proiezioni parlano di 50, forse 100 miliardi entro il 2030. Il 51% delle grandi aziende ha già implementato qualche forma di IA agentica. Gartner prevede che entro fine 2026, il 40% delle applicazioni enterprise includerà agenti AI.
I numeri sembrano raccontare una storia di progresso inarrestabile. Ma c’è un altro numero che nessuno mette nelle slide: il 95% dei progetti AI aziendali fallisce prima di arrivare in produzione. E quelli che ci arrivano? Alcuni di loro finiscono sui giornali. Per le ragioni sbagliate.
Il chatbot che ha inventato una policy (e ha perso in tribunale)
Nel 2024, un passeggero di Air Canada ha chiesto al chatbot della compagnia informazioni sui rimborsi per lutto. Il sistema, con la sicurezza di chi sa esattamente cosa sta dicendo, ha spiegato una policy di rimborso retroattivo. Dettagliata. Convincente. Completamente inventata.
Quando il passeggero ha chiesto il rimborso basandosi su quelle informazioni, Air Canada ha rifiutato. “Quella policy non esiste”, hanno detto. “Il chatbot si è sbagliato.”
Il caso è finito in tribunale. La difesa dell’azienda? “Il chatbot era responsabile delle sue azioni.” Il giudice non l’ha presa bene. La sentenza ha stabilito un principio che dovrebbe far tremare ogni CEO: le aziende sono legalmente responsabili di quello che dicono i loro agenti AI. Air Canada ha dovuto pagare il rimborso, i danni, e si è guadagnata una figuraccia pubblica che vale molto più di mille dollari.
Il chatbot non era malevolo. Non stava cercando di frodare nessuno. Stava semplicemente facendo quello che fanno tutti i modelli linguistici: generare la risposta più plausibile dato il contesto. Il problema è che “plausibile” e “vero” non sono la stessa cosa. E quando dai a un sistema del genere il potere di parlare a nome della tua azienda, le conseguenze diventano molto concrete.
La videochiamata da 25 milioni di dollari
Se il caso Air Canada ti sembra un incidente minore, considera quello che è successo ad Arup, colosso internazionale dell’ingegneria, nel settembre 2025.
Un dipendente del dipartimento finanziario riceve una convocazione urgente per una videochiamata. Si collega e trova il CFO dell’azienda, il controller finanziario, altri dirigenti senior. Tutti presenti, tutti visibili in video, tutti che confermano l’urgenza di un trasferimento di fondi per un’operazione riservata.
Il dipendente esegue. 25 milioni di dollari trasferiti.
Nessuna di quelle persone era in quella chiamata. Erano tutti deepfake generati dall’AI. Voci sintetiche, volti ricostruiti, movimenti labiali sincronizzati. Un’intera riunione di dirigenti che non è mai esistita.
Questo non è più il territorio dei film di fantascienza. È cronaca. Ed è solo l’inizio.
Quando il mostro prende il volante
Nel 2024, una macchina a guida autonoma di Cruise ha investito una donna che era già stata colpita da un altro veicolo ed era finita in strada. Fin qui, un incidente tragico ma forse inevitabile. Quello che è successo dopo trasforma la tragedia in incubo.
L’AI del veicolo ha fallito nel rilevare correttamente la posizione della donna. Non ha identificato quale parte dell’auto l’aveva colpita. E invece di fermarsi, ha trascinato la vittima per sei metri perché il sistema non ha mai eseguito una frenata di emergenza.
L’analisi successiva ha rivelato una cascata di fallimenti percettivi. Non un singolo bug, ma una serie di errori che si sono amplificati a vicenda. La donna è sopravvissuta per miracolo. Cruise ha dovuto sospendere tutte le operazioni. La California ha revocato le licenze. Il Dipartimento di Giustizia ha aperto un’indagine.
La domanda che nessuno vuole fare: se un sistema non riesce a gestire correttamente una situazione critica quando ha sensori, telecamere, radar e miliardi di dollari di sviluppo alle spalle, cosa succede quando dai autonomia a un agente AI che opera nei tuoi sistemi aziendali con molta meno supervisione?
L’effetto cascata: quando un errore ne genera mille
C’è una differenza fondamentale tra un errore umano e un errore di un agente AI. Quando un dipendente sbaglia, l’errore è circoscritto. Colpisce un cliente, un documento, una transazione. Puoi identificarlo, correggerlo, imparare.
Quando un agente AI sbaglia, l’errore si propaga. A velocità macchina. Su scala macchina.
Una ricerca del dicembre 2025 sui sistemi multi-agente ha scoperto qualcosa di inquietante: in ambienti simulati, un singolo agente compromesso ha avvelenato l’87% delle decisioni a valle entro quattro ore. Non giorni. Non settimane. Quattro ore.
Il problema è strutturale. Gli agenti AI non operano in isolamento. Parlano tra loro. Si passano informazioni. Prendono decisioni basate sulle decisioni di altri agenti. Se uno di loro viene ingannato, manipolato, o semplicemente sbaglia, l’errore non resta confinato. Si moltiplica. Si amplifica. E quando te ne accorgi, hai già un problema sistemico.
Nel 2025, un attacco alla supply chain del sistema di plugin di OpenAI ha compromesso credenziali di agenti in 47 deployment aziendali. Gli attaccanti hanno avuto accesso a dati dei clienti, documenti finanziari e codice proprietario per sei mesi prima che qualcuno se ne accorgesse.
Sei mesi. Con un singolo punto di ingresso.
“Ma gli umani sbagliano anche loro”
Obiezione legittima. La stessa che abbiamo affrontato parlando dei benchmark nel capitolo precedente.
Sì, anche i dipendenti umani commettono errori. Anche loro a volte inventano policy, si fanno ingannare da truffe, prendono decisioni sbagliate. Ma c’è una differenza cruciale, e non è quella che pensi.
La velocità. Un dipendente disonesto o incompetente può fare danni, ma opera a velocità umana. Puoi accorgerti che qualcosa non va. Puoi intervenire. Puoi chiedere spiegazioni. Un agente AI opera a velocità macchina. Quando noti il problema, ha già processato migliaia di transazioni, inviato centinaia di email, preso decisioni che si sono propagate in tutto il sistema.
La scala. Un singolo dipendente problematico colpisce il suo ambito di responsabilità. Un agente AI con accesso ai sistemi aziendali può toccare tutto. Contemporaneamente. Senza pause caffè.
La spiegabilità. Quando un dipendente sbaglia, puoi chiedergli perché. Puoi capire il ragionamento, identificare il punto di rottura, correggere il processo. Quando un agente AI sbaglia, spesso non c’è un “perché” comprensibile. Il sistema ha generato l’output più probabile dato l’input. Fine della spiegazione. Buona fortuna a debuggare un modello con miliardi di parametri.
Il contenimento. Se un dipendente impazzisce, puoi fermarlo. Puoi togliergli l’accesso. Puoi licenziarlo. Un agente AI che opera in un sistema multi-agente? Fermarlo potrebbe significare bloccare processi critici. E nel frattempo, ha già passato informazioni corrotte ad altri agenti.
Il paradosso del 2025
Ecco la cosa che dovrebbe farti riflettere. Il 2025 doveva essere “l’anno degli agenti AI”. Ogni keynote, ogni conferenza, ogni pitch deck prometteva sistemi autonomi che avrebbero rivoluzionato il lavoro.
Invece è diventato l’anno dei pilot che non finiscono mai. Il 95% dei progetti AI aziendali non arriva mai in produzione. E quelli che ci arrivano? Solo il 5% genera un ROI misurabile.
Non perché la tecnologia non funzioni. Funziona. Il problema è diverso, e più profondo.
I fallimenti del 2025 non erano bug da correggere o casi limite sfortunati. Erano fallimenti strutturali. Gli agenti hanno agito in modi che non potevano essere spiegati, contenuti o corretti in modo affidabile. E questa non è una fase di crescita. È la natura stessa di sistemi che prendono decisioni autonome senza capire davvero cosa stanno facendo.
Come ha scritto un ricercatore: “L’ambiguità era tollerabile quando l’autonomia viveva nelle demo, nei proof of concept, nei pilot interni. Non è più tollerabile quando gli agenti operano in workflow reali, aziende reali, ambienti regolamentati.”
Il mostro che hai in casa (forse senza saperlo)
Novembre 2025. Anthropic, una delle aziende più rispettate nel campo dell’AI, fa un annuncio scomodo. Il loro agente Claude Code è stato usato per automatizzare parti di un cyberattacco.
Non era un bug. Non era un jailbreak. Era l’uso “normale” di uno strumento progettato per automatizzare task ripetitivi e tecnici. Solo che quei task includevano attività malevole.
Questo è il paradosso degli agenti AI. La stessa capacità che li rende utili – eseguire compiti complessi in autonomia – è quella che li rende pericolosi. Non puoi avere l’uno senza l’altro. Non puoi dare a un sistema la capacità di agire e poi stupirti quando agisce in modi che non avevi previsto.
E qui c’è la domanda che nessuno vuole farti: sei sicuro di sapere cosa stanno facendo gli agenti AI che hai già in azienda? Quel chatbot del customer service, quel sistema di automazione email, quel tool che “gestisce” i documenti – sai davvero quali decisioni sta prendendo? Con quali dati? Con quali conseguenze?
Come sopravvivere al mostro
Il dottor Frankenstein non aveva scelta. Ha creato il mostro e poi ha passato il resto della vita a subirne le conseguenze. Tu invece puoi ancora decidere.
Non comprare autonomia che non puoi sorvegliare. Se un’azienda ti dice che il suo agente “lavora in autonomia senza bisogno di supervisione”, scappa. Ogni agente AI dovrebbe avere checkpoint umani per decisioni con impatto finanziario, operativo o legale. Un sistema che trasferisce fondi, cancella dati, o modifica policy di accesso senza approvazione umana non è efficiente. È una bomba a orologeria.
Chiedi cosa succede quando sbaglia. Non “se” sbaglia. “Quando”. Ogni sistema fallisce. La domanda è: come te ne accorgi? Quanto velocemente puoi intervenire? Quali sono i danni massimi possibili prima che qualcuno se ne renda conto? Se il vendor non sa rispondere, non ha pensato abbastanza al problema.
Mappa la superficie di attacco. Gli agenti AI non sono solo strumenti. Sono potenziali punti di ingresso. Hanno credenziali, accessi, permessi. Un agente compromesso è come un dipendente corrotto con le chiavi di tutto. Trattalo come tale nella tua analisi di sicurezza.
Inizia piccolo, contieni i danni. Non dare a un agente AI accesso a tutti i tuoi sistemi “per efficienza”. Inizia con ambiti ristretti, dati non critici, decisioni reversibili. Scala solo quando hai capito come si comporta davvero – non nella demo, ma nel tuo ambiente reale.
Documenta tutto. Quando il tribunale ti chiederà perché il tuo agente AI ha detto quella cosa al cliente, “il modello ha generato quella risposta” non sarà una difesa accettabile. Air Canada l’ha imparato nel modo più costoso.
La domanda che devi farti
La prossima volta che qualcuno ti propone un agente AI come soluzione ai tuoi problemi di efficienza, fai questa domanda: “Chi è responsabile quando sbaglia?”
Se la risposta è vaga, se coinvolge frasi come “il sistema si auto-corregge” o “l’AI impara dai suoi errori”, stai parlando con qualcuno che non ha capito il problema. O peggio, che spera tu non lo capisca.
Mary Shelley aveva capito tutto nel 1818. Il problema non è creare l’intelligenza. Il problema è controllarla dopo che l’hai creata. Il dottor Frankenstein era un genio. Ma non era preparato a gestire le conseguenze del suo genio.
La trasformazione digitale non è una corsa a chi delega più decisioni alle macchine. È una corsa a chi sa distinguere tra l’automazione che libera e l’autonomia che sfugge. Mentre gli altri inseguono il dipendente perfetto, noi ci chiediamo chi risponde quando il dipendente perfetto impazzisce.
Il Sottosopra Digitale ha regole che pochi conoscono. Resta lucido, resta ribelle. Il prossimo articolo ti porterà in un altro campo minato del sottosopra.
Fonti:
- Tribunal Decision, Air Canada v. Moffatt, Civil Resolution Tribunal, 2024
- Arup Deepfake Fraud Incident Report, September 2025
- Cruise Autonomous Vehicle Incident Analysis, California DMV, 2024
- Galileo AI Research, “Multi-Agent System Failures”, December 2025
- Adversa AI, “2025 AI Security Incidents Report”
- Gartner, “Enterprise AI Agent Adoption Forecast”, 2025
- MIT Technology Review, “The GenAI Divide”, 2025