Tempo di Lettura: 18minuti
Benvenuti nel settimo capitolo delle Cronache del Sottosopra Digitale, ribelli. Se state leggendo questo articolo, probabilmente fate parte di quella minoranza critica che ha smesso di guardare le luci stroboscopiche del palcoscenico tecnologico per iniziare a chiedersi cosa stia succedendo dietro le quinte, dove i cavi sono scoperti e l’aria è viziata.
L’Ascensore per l’Inferno
L’anno è il 2026, e la sbornia dell’Intelligenza Artificiale Generativa, iniziata con il botto a metà del decennio, si è trasformata in un mal di testa cronico e pulsante per l’economia globale e l’ecosistema planetario. Eppure, la narrazione ufficiale non è cambiata: dai keynote della Silicon Valley ai comunicati stampa delle agenzie governative, l’IA viene ancora venduta come una tecnologia eterea, immateriale, una “nuvola” (leggi cloud) che piove efficienza e creatività su un mondo assetato di soluzioni facili.
Questa narrazione, tuttavia, è una menzogna architettonica. La metafora del “Sottosopra”, che ha guidato la nostra “inchiesta” fin dal primo episodio sullo “slop” semantico, non è più sufficiente se intesa solo come dimensione estetica o culturale. Oggi, nel 2026, il Sottosopra è una categoria macroeconomica precisa e spietata. Esiste un Mondo di Sopra dove i CEO presentano modelli linguistici sempre più performanti (“ora con il 20% in più di empatia!”) e dagli investitori che celebrano i margini di profitto dell’automazione totale. In questo luogo luminoso, la tecnologia appare a frizione zero: chiedi e ti sarà dato, scrivi un prompt e otterrai un codice, butta giù un’idea e otterrai un’app perfetta, desidera un amico e avrai un’amante sintetica.[1]
Ma ogni grattacielo ha le sue fondamenta, e quelle del Sottosopra Digitale affondano in un Mondo di Sotto fatto di materialità brutale. È un mondo di cavi sottomarini che tagliano gli oceani come cicatrici, di data center che evaporano falde acquifere in zone desertiche, di lavoratori precari in Bangladesh che filtrano video di decapitazioni per pochi centesimi l’ora, e di server farm che competono violentemente con l’agricoltura per l’accesso all’acqua potabile.[1]L’episodio 7 non è un’esplorazione: è un’indagine. L’obiettivo è dimostrare, dati alla mano, che l’Intelligenza Artificiale attuale non è una tecnologia di produzione (capace di creare valore ex nihilo), ma una tecnologia di estrazione. Essa agisce come un vampiro planetario, un’architettura parassitaria che concentra ricchezza finanziaria estraendola sistematicamente da tre “commons”, tre beni comuni fondamentali: il lavoro umano (trasformato in Ghost Work), le risorse naturali (in particolare l’acqua), e l’intimità psicobiologica della specie (attraverso l’intimità sintetica e la violazione dei neuro-diritti).[1]
In questo articolo estensivo, smonteremo pezzo per pezzo la macchina dell’hype (per chi ancora ignora questa parola traducetela come “forte interesse collettivo spesso illogico”). Analizzeremo come il concetto di “automazione” sia spesso una copertura per lo sfruttamento neocoloniale (“Fauxtomation”), come la sete dei data center stia innescando conflitti geopolitici locali e come la sorveglianza neurale stia trasformando i nostri stessi pensieri in dati biometrici da estrarre. Non è un viaggio comodo. È un tema “scomodo” perché costringe il lettore (leggi tu, io, noi e voi) a riconoscere la propria complicità in una filiera di sfruttamento che sostiene ogni nostra interazione digitale “gratuita”. Preparatevi, stiamo scendendo nel seminterrato.
Pilastro I: La Fabbrica Invisibile
La più grande astuzia del diavolo, si diceva, è far credere di non esistere. La più grande astuzia dell’industria dell’IA nel 2026 è far credere di essere autonoma. La realtà, emersa prepotentemente da studi etnografici e inchieste sindacali tra il 2024 e il 2026, è che l’IA è un’industria pesante, manuale e profondamente iniqua. Non siamo di fronte all’alba dei robot senzienti, ma al tramonto dei diritti dei lavoratori, mascherato da progresso tecnologico.
Il Mito della Fauxtomation: Astra Taylor e l’Inganno Sistemico
Per comprendere il meccanismo economico che regge il Sottosopra, dobbiamo appropriarci del termine “Fauxtomation” (falsa automazione), coniato e reso celebre dalla scrittrice e regista Astra Taylor.[3] La fauxtomation descrive il processo che rende invisibile il lavoro umano necessario per mantenere l’illusione che le macchine e i sistemi siano più intelligenti e capaci di quanto non siano realmente. “Faux”, dal francese “falso”, indica che l’automazione non elimina il lavoro, ma lo sposta: lo sposta nello spazio (dal nord al sud del mondo), nel tempo (dal contratto a tempo indeterminato al micro-task a cottimo) e nella percezione (dal dipendente visibile al “ghost worker” nascosto dietro un’API).[3]
Un esempio classico, citato da Taylor, è l’esperienza di ordinare cibo tramite un’app o un chiosco automatico. L’utente ha l’impressione di un processo automatizzato, “magico”, in cui l’ordine viene processato da un algoritmo. In realtà, il lavoro di inserimento dati è stato semplicemente scaricato sul cliente stesso (che diventa un lavoratore non retribuito) o su operatori remoti che gestiscono le eccezioni e gli errori del sistema.[3] Traslando questo concetto all’IA del 2026, l’inganno diventa sistemico. Le piattaforme di intelligenza artificiale vengono vendute come entità autonome capaci di moderare contenuti, guidare veicoli o scrivere codice. In realtà, dietro ogni risposta fluida di un chatbot e ogni decisione di un veicolo a guida autonoma, c’è un esercito di esseri umani che intervengono quando la macchina fallisce e la macchina fallisce spesso.[3]
La fauxtomation ha uno scopo duplice. Da un lato, serve al marketing: permette alle aziende di gonfiare le valutazioni azionarie promettendo margini di profitto infiniti derivanti dall’eliminazione del costo del lavoro (che in realtà viene solo nascosto, non eliminato). Dall’altro, ha una funzione politica: svaluta il lavoro umano. Se il lavoro è invisibile e attribuito alla “magia” dell’algoritmo, non deve essere pagato dignitosamente, non necessita di sindacalizzazione e non merita tutele.[5] L’IA, in questa ottica, non è lo strumento che ci libera dalla fatica, ma lo strumento che libera il capitale dalla responsabilità verso il lavoro.
Ghostcrafting AI: L’Artigianato dell’Ombra
Se fino a pochi anni fa si parlava genericamente di “data labeling” (l’etichettatura di immagini per addestrare le reti neurali), nel 2026 la complessità dei modelli ha richiesto un’evoluzione del lavoro fantasma verso forme cognitive più elevate. Questo fenomeno è stato definito “Ghostcrafting AI” in recenti studi accademici, tra cui l’etnografia seminale di Rahman et al. (Dicembre 2025) sul lavoro di piattaforma in Bangladesh.[7]
Il Ghostcrafting non è semplice “cliccare su semafori”. È un lavoro di artigianato invisibile che sostiene, ripara e migliora i sistemi di IA in tempo reale. I lavoratori non si limitano a nutrire la macchina; colmano le sue lacune semantiche, correggono i suoi errori logici e, letteralmente, “recitano” la parte dell’IA quando questa non è in grado di interagire in modo credibile con l’utente umano.[7] Il termine “crafting” (artigianato) è cruciale: suggerisce che, contrariamente alla narrazione dell’automazione standardizzata, il funzionamento dell’IA dipende da un’immensa quantità di giudizio umano, improvvisazione e “saper fare” contestuale che non è codificabile.
L’Ecosistema del Ghostcrafting: Ruoli e Mansioni
L’etnografia del 2025/2026 rivela una diversificazione dei ruoli all’interno delle “fabbriche invisibili” del Sud Globale (Bangladesh, India, Filippine, Kenya) 10:
- I Riparatori di Codice: Con l’avvento del “Vibe Coding” (di cui parleremo a breve), migliaia di sviluppatori in India e Pakistan sono pagati per correggere silenziosamente gli snippet di codice generati male dagli LLM, affinché l’utente finale occidentale abbia l’illusione che l’IA abbia “capito le vibrazioni”.[7]
- Gli Empatici Sintetici: Lavoratori nelle Filippine gestiscono o supervisionano le risposte dei chatbot terapeutici o dei “fidanzati AI” quando la conversazione tocca temi complessi o delicati che il modello non sa gestire senza rischiare danni reputazionali per l’azienda.[3]
- I Moderatori del Trauma: In Kenya, i lavoratori continuano a fungere da “filtri biologici” per la tossicità del web, visionando ore di video generati da IA (text-to-video) che possono contenere allucinazioni violente o pedopornografiche, proteggendo così la psiche degli utenti del “Mondo di Sopra” al prezzo della propria salute mentale.[10]
La caratteristica definente del Ghostcrafting è la cancellazione dell’autore. A differenza del ghostwriter letterario, che può talvolta essere un “segreto di Pulcinella”, il ghostcrafter dell’IA è vincolato da NDA (Non-Disclosure Agreements) draconiani e da interfacce piattaformiche che frammentano il suo contributo in micro-task anonimi, rendendo impossibile rivendicare qualsiasi paternità sul risultato finale.[8] L’IA deve apparire come un monolite autonomo; ammettere l’intervento umano spezzerebbe l’incantesimo e crollerebbe la valutazione di borsa.
Il Grande Bluff del “Vibe Coding”
Per illustrare concretamente il Ghostcrafting, non c’è esempio migliore del “Vibe Coding”. Il termine, popolarizzato ironicamente da Andrej Karpathy nel febbraio 2025, descriveva una nuova era della programmazione in cui lo sviluppatore non scriveva più codice, ma forniva istruzioni in linguaggio naturale (“vibes”) all’IA, lasciando che questa gestisse l’implementazione tecnica. “Dimentica che il codice esiste”, era il motto: affidati alle vibrazioni.[13]
Tuttavia, verso la fine del 2025 e l’inizio del 2026, la realtà ha presentato il conto. Il “Vibe Coding” puro si è rivelato un disastro ingegneristico. Il codice generato dagli LLM, se non attentamente supervisionato, è spesso insicuro, non ottimizzato, o pieno di “allucinazioni funzionali”; codice che sembra corretto ma che non esegue ciò che dovrebbe, o che introduce vulnerabilità critiche.[16] Report di Fast Company del settembre 2025 hanno parlato di “Vibe Coding Hangover” (i postumi della sbornia da vibe coding), descrivendo team di sviluppo costretti a spendere mesi per ripulire il codice spazzatura generato dall’IA.[15]
Qui interviene il Ghostcrafting. Per mantenere la promessa di piattaforme “low-code/no-code” potenziate dall’IA, molte aziende hanno silenziosamente integrato un layer umano nel loop. Quando un utente fa una richiesta complessa di “vibe coding”, e l’IA produce un risultato incerto, il task viene instradato (spesso all’insaputa dell’utente) a sviluppatori umani nel Sud del mondo che correggono, patchano e validano il codice in tempo reale o quasi.[7] L’utente pensa di programmare con le “vibrazioni”; in realtà, sta usando un’interfaccia vocale per comandare un programmatore sottopagato a Dacca o Bangalore. È la fauxtomation nella sua forma più pura: la tecnologia non elimina la competenza tecnica, la rende solo invisibile e malpagata.
Identity Masking: Guerriglia e Sopravvivenza nell’Apartheid Algoritmico
I lavoratori del Sottosopra non sono ingranaggi passivi. Di fronte a un sistema che cerca di estrarli come risorse minerarie, hanno sviluppato tattiche di resistenza sofisticate. Una delle più rilevanti emerse nel 2025-2026 è l’Identity Masking (Mascheramento dell’Identità).[7]
Gli algoritmi delle piattaforme di gig economy (come Upwork, Fiverr o le piattaforme specializzate in training AI) applicano una forma di “apartheid geografico”: le tariffe per lo stesso lavoro variano drasticamente a seconda che il lavoratore si connetta da New York o da Nairobi. Un task pagato 20 dollari a un americano può esserne pagato 2 a un keniota.[18] Inoltre, molti task “premium” sono geobloccati, accessibili solo a IP occidentali.
Per sopravvivere, i ghost workers del Sud Globale hanno costruito un’infrastruttura clandestina di mascheramento:
- VPN e Residential Proxy: Utilizzano servizi avanzati per instradare la connessione attraverso indirizzi IP residenziali negli USA o in UK, rendendo difficile per le piattaforme rilevare la vera posizione.[7]
- Affitto di Identità (Account Renting): Esiste un mercato nero dove cittadini occidentali “affittano” i propri account verificati su piattaforme di lavoro a lavoratori del Sud del mondo in cambio di una percentuale sui guadagni (spesso il 20-30%). Il lavoratore in Bangladesh lavora effettivamente, ma il sistema vede “John Smith” dall’Ohio.[8]
- Infrastrutture Pirata: Gli studi etnografici di Rahman (2025) descrivono interi internet café a Dacca trasformati in centri operativi per l’Identity Masking, dove si condividono “account sicuri”, si utilizzano software piratati per bypassare i controlli e si tengono corsi informali su come “fingersi occidentali” nelle chat con i clienti (uso di slang, fusi orari, riferimenti culturali).[8]
Questa pratica non è percepita dai lavoratori come una frode, ma come una tattica di riparazione (“repair practice”) di un mercato rotto e discriminatorio. È l’unico modo per accedere a una retribuzione che rifletta il valore reale del lavoro svolto, aggirando le barriere artificiali erette dal colonialismo algoritmico.[20]
Il Parallelo Italiano: Caporalato Digitale e Click Day 2026
Per il pubblico italiano, questa realtà apparentemente lontana trova un’eco inquietante nelle cronache locali. Il Click Day del Decreto Flussi 2025/2026 rappresenta la versione statale e burocratizzata della stessa logica di gestione disumana della forza lavoro.[21]
Nel gennaio e febbraio 2026, il governo italiano ha aperto le procedure per l’ingresso di oltre 80.000 lavoratori extracomunitari. Il sistema del “Click Day” trasforma l’accesso al diritto al lavoro in una lotteria basata sulla latenza di rete: le quote si esauriscono in pochi minuti, e l’assegnazione non dipende dalla qualità dell’incontro domanda-offerta, ma dalla velocità di invio telematico.[21] Esattamente come nel Ghost Work, l’essere umano viene ridotto a un pacchetto dati da processare alla massima velocità. E come nel Ghost Work, nascono intermediari opachi: agenzie e “caporali digitali” che vendono servizi di “invio rapido” o script automatizzati per battere la concorrenza sul portale del Ministero, spesso truffando i lavoratori stessi.[23]
Inoltre, l’Italia ospita una sua forma autoctona di fauxtomation: le Click Farm. Le inchieste recenti 25 hanno svelato che dietro i “like” e le visualizzazioni che gonfiano il valore degli influencer italiani non ci sono solo bot, ma reti di persone reali, spesso disoccupati, studenti o immigrati residenti in Italia, pagati pochi centesimi per cliccare manualmente, simulare interesse e guardare video. Sono i “braccianti digitali” a chilometro zero, sfruttati nelle periferie di Napoli o Milano con la stessa logica con cui i ghost workers sono sfruttati a Manila. Il caporalato agricolo, che sfrutta le braccia nei campi di pomodori, ha trovato il suo gemello digitale nel caporalato dell’attenzione, che sfrutta i polpastrelli sugli schermi.[27]
Pilastro II: La Sete dell’Algoritmo
Se il lavoro è il sangue che scorre nelle vene dell’IA, l’acqua è il liquido di raffreddamento che impedisce al cervello della bestia di fondersi. Nel 2026, l’impatto ambientale dell’Intelligenza Artificiale non può più essere misurato solo in CO2. La vera emergenza è idrica.
La Termodinamica del Cloud: Perché l’IA Beve?
I data center che ospitano i modelli di IA sono strutture immense piene di server (GPU e TPU) che operano 24/7 eseguendo calcoli matriciali complessi. Questi processi generano una quantità enorme di calore. Per mantenere la temperatura operativa e prevenire guasti hardware, i server devono essere raffreddati. Sebbene esistano tecniche di raffreddamento ad aria, il metodo più efficiente dal punto di vista energetico (e quindi economico per le Big Tech) è il raffreddamento evaporativo tramite torri di raffreddamento.[29] Questo processo utilizza l’evaporazione dell’acqua per rimuovere il calore: l’acqua assorbe l’energia termica e si disperde nell’atmosfera come vapore. Quest’acqua è persa per il bacino idrico locale. Inoltre, per evitare incrostazioni, corrosione e proliferazione batterica (come la legionella) nei delicati circuiti di raffreddamento, l’acqua utilizz