Tempo di Lettura: 7 minuti
Febbraio 2025. Un imprenditore italiano di primo piano riceve una telefonata. All’altro capo del filo c’è una voce che conosce bene: quella del Ministro della Difesa, Guido Crosetto. Il tono è quello giusto, pacato ma urgente. La questione è delicata: giornalisti italiani rapiti in Medio Oriente, una situazione collegata al caso di Cecilia Sala, la necessità di costituire un fondo riservato per il riscatto. Serve un bonifico immediato su un conto estero. Tutto verrà rimborsato dalla Banca d’Italia.
L’imprenditore esegue. Quasi un milione di euro parte verso Hong Kong.
Solo dopo scoprirà che quella voce non apparteneva a nessun ministro. Era un fantasma digitale, una replica sintetica costruita con pochi secondi di registrazioni pubbliche e un software che oggi costa meno di un abbonamento a Netflix. A denunciare la truffa sarà lo stesso Crosetto, via social, dopo che altri imprenditori lo avranno contattato chiedendo chiarimenti su telefonate mai avvenute. La lista dei bersagli fa impressione: Giorgio Armani, Patrizio Bertelli, Massimo Moratti, Diego Della Valle, Marco Tronchetti Provera, le famiglie Caltagirone, Aleotti, Beretta, Del Vecchio. Il gotha dell’imprenditoria italiana, preso di mira con un’unica arma: una voce che non esisteva.
Questa non è una spy story. È cronaca giudiziaria del 2025, con fascicolo aperto alla Procura di Milano. Ed è solo l’inizio di qualcosa di molto più grande.
Il falsario che non falsifica banconote
Nel Rinascimento, le botteghe dei falsari erano luoghi fisici, con apprendisti, pigmenti e mesi di lavoro per replicare un singolo dipinto. Servivano talento, materiali e tempo. Il falsario era un artigiano, per quanto criminale.
Nel 2026, la bottega è un laptop. I pigmenti sono dati pubblici. E il tempo di produzione è sceso a pochi minuti. Con una differenza cruciale: il falsario del Rinascimento contraffaceva oggetti. Quello del Sottosopra Digitale contraffà persone.
I numeri raccontano un’esplosione che ha pochi precedenti nella storia della criminalità tecnologica. Le perdite globali da frode deepfake hanno raggiunto 1,1 miliardi di dollari nel 2025, il triplo rispetto ai 360 milioni dell’anno precedente. Il volume di deepfake online è passato da circa 500.000 nel 2023 a oltre 8 milioni nel 2025, con una crescita annua vicina al 900%. La frode da clonazione vocale, da sola, è aumentata del 680% in un solo anno.
Ma il dato che dovrebbe togliere il sonno a ogni imprenditore è un altro: solo il 13% delle aziende dispone di protocolli specifici contro i deepfake. E un dirigente su quattro non sa nemmeno cosa siano.
Non stiamo parlando di un problema di cybersecurity per le multinazionali con reparti IT da cento persone. Stiamo parlando di un rischio operativo per chiunque abbia un conto corrente, un telefono e una reputazione da sfruttare.
Cinquanta dollari al mese per diventare chiunque
La tecnologia che ha reso possibile il caso Crosetto non è segreta, militare o costosissima. È commerciale, disponibile e in continua evoluzione.
Per clonare una voce in modo convincente bastano dai 3 ai 5 secondi di audio pulito. Cinque secondi. L’equivalente di una frase pronunciata durante un’intervista televisiva, un podcast, un video su LinkedIn, un messaggio vocale su WhatsApp. Nel 2025 la clonazione vocale ha superato quella che i ricercatori chiamano “soglia dell’indistinguibilità”: intonazione naturale, ritmo, pause, respiro, persino le emozioni vengono replicate con una fedeltà che inganna il 70% degli ascoltatori.
Il punto di svolta non è la qualità della tecnologia. È la sua accessibilità. Il modello di business si chiama “Fraud-as-a-Service”: piattaforme nel dark web (ma non solo) che offrono strumenti di clonazione vocale e generazione video tra i 10 e i 50 dollari al mese. L’equivalente di un abbonamento premium a Spotify, ma per fabbricare identità sintetiche. Nessuna competenza tecnica richiesta. Template preconfezionati, tutorial, persino assistenza clienti.
La fiducia come superficie di attacco
C’è un motivo preciso per cui il caso Crosetto ha funzionato (e continua a funzionare in decine di varianti meno eclatanti). Non è un motivo tecnico. È antropologico.
La cultura imprenditoriale italiana si regge sulla fiducia personale. La telefonata diretta. Il “ci penso io”. La stretta di mano che vale più di un contratto. Nella PMI italiana, le decisioni finanziarie passano spesso attraverso canali informali: una chiamata al commercialista, un messaggio al direttore di banca, un’indicazione verbale al responsabile amministrativo. Questo tessuto relazionale è ciò che rende le nostre imprese agili, reattive, umane. Ed è esattamente ciò che i truffatori stanno imparando a sfruttare.
Il deepfake vocale che chiama il vostro direttore finanziario non sta hackerando un firewall. Sta hackerando un rapporto di fiducia costruito in vent’anni di lavoro insieme. E lo fa con una precisione chirurgica: la voce giusta, il tono giusto, l’urgenza giusta, il contesto giusto.
L’80% delle truffe deepfake nel 2025 è avvenuto attraverso canali “sociali”: Facebook, WhatsApp, Telegram. Non email anonime piene di errori grammaticali. Messaggi vocali su WhatsApp con la voce del titolare. Videochiamate su Teams con il volto del CFO. Il vettore di attacco non è la tecnologia: è la relazione.
Quando il fantasma entra in sala riunioni
Se pensate che il caso Crosetto sia il peggio che possa capitare, considerate quello che è successo ad Arup, colosso internazionale dell’ingegneria. Un dipendente del dipartimento finanziario viene convocato per una videochiamata urgente. Si collega e trova il CFO dell’azienda, il controller, altri dirigenti senior. Tutti presenti, tutti visibili, tutti che confermano l’urgenza di un trasferimento. Il dipendente esegue: 25 milioni di dollari.
Nessuna di quelle persone era nella chiamata. Erano tutti deepfake video generati in tempo reale. Un’intera riunione di dirigenti che non è mai esistita.
Poi c’è il caso che dimostra il contrario: che difendersi è possibile, anche senza budget milionari per la cybersecurity. Luglio 2024, Maranello. Un dirigente Ferrari riceve messaggi WhatsApp dal CEO Benedetto Vigna. Foto profilo plausibile, cavallino sullo sfondo. Il tono è quello giusto: un’acquisizione riservata, serve discrezione. Segue una telefonata: la voce replica l’accento lucano di Vigna con precisione inquietante.
Il dirigente nota qualcosa. Lievi suoni metallici tra le parole, una sfumatura artificiale nel timbro. Decide di fare una domanda semplice: “Scusa Benedetto, qual è il titolo del libro che mi hai consigliato qualche giorno fa?”
Silenzio. Chiamata interrotta. Truffa sventata.
Il libro era Il decalogo della complessità di Alberto Felice De Toni. Un dettaglio banale, impossibile da replicare per un algoritmo. Una domanda da cinque secondi che ha probabilmente risparmiato a Ferrari milioni di euro e una figuraccia planetaria.
L’esca che non sembra un’esca
C’è un aspetto delle truffe deepfake che viene sistematicamente sottovalutato: la fase di ricognizione. Prima di clonare la voce del vostro CEO, i truffatori hanno bisogno di due cose: materiale audio e informazioni sul bersaglio.
Il materiale audio è ovunque. Ogni keynote su YouTube, ogni intervista in un podcast, ogni video su LinkedIn, ogni apparizione televisiva del titolare di un’azienda diventa materiale di addestramento per gli attaccanti. La visibilità mediatica, che nel marketing consideriamo un asset, nella sicurezza è diventata una vulnerabilità.
Le informazioni sul bersaglio arrivano spesso dai social media, e con un metodo più sottile di quanto si pensi. I truffatori pubblicano contenuti generati dall’AI per identificare chi interagisce: un like, un commento, una condivisione. Questi segnali servono a costruire un profilo comportamentale: chi è propenso a reagire d’impulso, chi interagisce con contenuti emotivi, chi è meno attento alla provenienza di ciò che vede. Il “mettere like” su un post sospetto non è un gesto innocuo: è un segnale che dice “sono raggiungibile”.
L’Italia risponde (ma lentamente)
Sul piano legislativo, l’Italia ha fatto un passo avanti significativo. La Legge n. 132 del 2025, entrata in vigore il 10 ottobre, ha introdotto il reato specifico di deepfake nel codice penale (articolo 612-quater): l’illecita diffusione di contenuti generati o alterati tramite sistemi di intelligenza artificiale è punita con la reclusione da uno a cinque anni.
È un segnale importante. Ma una legge, da sola, non ferma un truffatore che opera da un server in un paese terzo e chiama via VoIP con un numero mascherato. La vera difesa, per una PMI, non è giuridica. È operativa.
Cinque mosse per lunedì mattina
Eccoci al punto in cui l’articolo deve smettere di descrivere il problema e iniziare a risolverlo. Niente checklist da consulente IT. Cinque azioni concrete che potete implementare questa settimana.
Primo: la regola del secondo canale. Qualsiasi richiesta di trasferimento fondi, modifica di coordinate bancarie o autorizzazione finanziaria ricevuta per telefono, videochiamata o messaggio deve essere verificata attraverso un canale diverso da quello della richiesta. Se la richiesta arriva via WhatsApp, verificate con una telefonata al numero che avete in rubrica. Se arriva per telefono, verificate di persona o via email. Sempre. Senza eccezioni. Senza “ma era urgente”.
Secondo: la parola d’ordine. Stabilite con il vostro direttore finanziario, il commercialista e i collaboratori che gestiscono flussi di denaro una parola d’ordine verbale, nota solo a voi. Cambiatela ogni trimestre. La domanda sul libro che ha salvato Ferrari è esattamente questo: un segreto condiviso che nessun algoritmo può indovinare.
Terzo: l’inventario dell’esposizione. Fate una ricerca su YouTube, Google e i social con il vostro nome e quello dei vostri dirigenti. Quanto materiale audio e video è disponibile pubblicamente? Ogni intervista, ogni video promozionale, ogni podcast è potenziale materiale di addestramento. Non significa sparire da internet: significa essere consapevoli di quanto siete “clonabili” e bilanciare visibilità e rischio.
Quarto: la simulazione. Una volta l’anno (almeno), fate un test interno. Chiedete a un consulente di simulare una telefonata deepfake al vostro reparto amministrativo. Scoprirete quanto velocemente qualcuno può autorizzare un pagamento basandosi solo sulla fiducia nella voce che sente. Meglio scoprirlo in un’esercitazione che in una denuncia alla Procura.
Quinto: il sospetto come competenza. Il segnale d’allarme più affidabile resta il cervello umano, se è addestrato a usarlo. Insegnate ai vostri collaboratori a riconoscere i tre fattori che accomunano ogni truffa deepfake: urgenza (“bisogna agire subito”), segretezza (“non parlarne con nessuno”) e anomalia nel canale (un numero diverso, una piattaforma insolita, un orario inatteso). Quando tutti e tre sono presenti, la probabilità di frode è altissima. La risposta corretta non è agire: è verificare.
Il fantasma e lo specchio
Il Sottosopra Digitale ci ha abituati a minacce astratte: lo slop che inquina i risultati di ricerca, gli algoritmi che manipolano l’attenzione, i benchmark truccati che vendono intelligenza inesistente. I deepfake sono qualcosa di diverso. Sono una minaccia concreta, misurabile in euro sottratti dal conto corrente.
Ma al centro di tutto, il meccanismo è lo stesso: qualcuno sfrutta la vostra fiducia per estrarre valore. L’unica differenza è che, nel caso dei deepfake, non stanno estraendo la vostra attenzione o i vostri dati. Stanno estraendo direttamente il vostro denaro. E per farlo, stanno trasformando in arma la risorsa più preziosa che un imprenditore possiede: la propria identità.
Il falsario del Rinascimento poteva imitare un Caravaggio, ma non poteva diventare Caravaggio. Il falsario del 2026 può diventare voi. Può parlare con la vostra voce, apparire con il vostro volto, dare ordini con la vostra autorità. E la persona dall’altra parte del telefono non ha strumenti per distinguere l’originale dalla copia, se non una domanda semplice, analogica, irriducibilmente umana.
“Qual è il titolo del libro che mi hai consigliato?”
Il Sottosopra Digitale ha regole che pochi conoscono. Resta lucido, resta ribelle. Il prossimo episodio ci porterà ancora più a fondo.
Fonti:
- Fortune, marzo 2026: “Boards aren’t ready for the AI age: What happens when your CEO gets deepfaked?” — James Richardson
- Sky TG24, febbraio 2025: “Truffa con nome (e voce) del ministro Crosetto”
- Cyber Security 360, febbraio 2025: “Truffa del falso Crosetto: cosa sappiamo dei deepfake vocali”
- ICT Security Magazine, gennaio 2026: “Deepfake vocali: il caso Crosetto svela la nuova frontiera del cyber-crimine in Italia”
- Bloomberg / Open Online, luglio 2024: “Truffa sventata a Maranello: deepfake del CEO Ferrari”
- Fortune, dicembre 2025: “2026 will be the year you get fooled by a deepfake” — Siwei Lyu
- Keepnet Labs, 2026: “Deepfake Statistics and Trends”
- PwC/Feedzai, 2026: “The Fraud Trend to Watch in 2026 and Beyond”
- Euronews, febbraio 2026: “How deepfake scams are reaching record levels”
- Deloitte Center for Financial Services: proiezioni frode AI a 40 miliardi USD entro 2027
- Pindrop Voice Intelligence & Security Report, 2025
- NordVPN / Arena Digitale, settembre 2025: dati sulla consapevolezza degli italiani