12. Il Furto che Chiami Progresso · Dave Slane | Studio

Compatibilité
Sauvegarder(0)
partager

Tempo di Lettura: 6 minuti

Nel 2016 hai scritto una guida su come scegliere un CRM per le PMI del tuo settore. Trecento ore di lavoro: ricerca, interviste con chi aveva sbagliato software e ci aveva rimesso soldi, riscritture. La guida è rimasta tra i primi risultati di Google per sei anni. Sei anni di traffico, di contatti, di clienti che ti scrivevano “ho trovato questo articolo e ho capito che potevate aiutarmi.”  Oggi quella stessa query restituisce una risposta generata in secondi da un modello AI. Il modello non cita la tua guida. Probabilmente ci ha fatto colazione. Non ti chiederà scusa. Non ti pagherà. E l’azienda che ha costruito quel modello (valutata 157 miliardi di dollari) sosterrà, in tribunale, che si tratta di fair use. Benvenuti all’episodio 12 delle Cronache del Sottosopra Digitale, ribelli. Questo è l’episodio della risposta impossibile: i tribunali si stanno muovendo, ma il danno è già avvenuto. E per la maggior parte di chi sta leggendo, non arriverà nessun rimborso.

Il Web Aperto era un Campo Comune. Era.

Per capire cosa sta succedendo, bisogna andare indietro di qualche secolo.

Tra il XVI e il XVIII secolo, in Inghilterra, i campi aperti coltivati collettivamente dalle comunità contadine vennero recintati dai proprietari terrieri attraverso un processo sistematico. I contadini persero l’accesso alle terre che lavoravano da generazioni. I proprietari accumularono rendita fondiaria. Il parlamento approvò leggi che legittimarono il tutto. I contadini non ricevettero nulla. Questo processo si chiama enclosure.

Il web aperto è stato, per trent’anni, una forma di bene comune creativo. Articoli, guide, immagini, codice sorgente, analisi prodotti da milioni di persone e resi disponibili globalmente. Era un commons: disordinato, imperfetto, ma reale.

L’addestramento massiccio dei modelli linguistici di grande scala è l’enclosure di quel commons.

I crawler percorrono il web sistematicamente, raccolgono miliardi di parole senza chiedere il consenso a chi le ha scritte, senza offrire compenso. Le stesse parole diventano parametri interni di un sistema che poi vende le risposte che quelle parole hanno reso possibili. Il New York Times ha stimato che il suo dataset di addestramento corrispondesse all’equivalente di 3,7 miliardi di pagine Word.

Ma il NYT può difendersi. Ha avvocati, ha legittimazione pubblica, ha risorse per portare una causa che dura anni. L’agenzia di comunicazione di Bologna con sei dipendenti, i cui articoli erano nei dataset con la stessa certezza matematica, non riceverà niente da nessun processo. Non è stata invitata. Non è parte della causa. Esiste, nei dataset, solo come materiale di addestramento.

Questo non è un problema di altri. È una questione strutturale che riguarda chiunque abbia pubblicato contenuti online nell’ultimo decennio. Come abbiamo analizzato in 7. Il Morso dell’IA, il copyright dei dati di training è la dimensione creativa di un meccanismo di estrazione più ampio.

NYT vs OpenAI: la Battaglia Processuale

Il New York Times ha citato OpenAI e Microsoft nel dicembre 2023 per violazione di copyright su milioni di articoli. È la causa più importante sulla proprietà intellettuale dell’era digitale dal caso Napster in poi.

Ad aprile 2025, il giudice ha respinto la richiesta di archiviazione per la parte relativa alla violazione diretta del copyright. A maggio 2025 è arrivato un ordine di preservazione senza precedenti: tutti i log di conversazione di ChatGPT (relativi a oltre 400 milioni di utenti) devono essere conservati. A giugno 2025, la corte ha ordinato la divulgazione di 20 milioni di log anonimi.

I tribunali stanno esaminando le pratiche di addestramento con una serietà che, un anno fa, sembrava impossibile. Questo conta.

Ma conta capire anche cosa sta succedendo nel frattempo, nei palazzi di giustizia paralleli.

L’Incertezza del Diritto

Giugno 2025: due giudici federali, in cause separate, hanno stabilito che il training AI è “altamente trasformativo” e protetto dal principio del fair use. In Bartz v. Anthropic e in Kadrey v. Meta, la tesi difensiva ha retto. OpenAI cita questi precedenti come vittorie significative.

La stessa tecnologia, valutata dagli stessi standard legali, è stata considerata sia furto che trasformazione, a seconda del tribunale e del momento.

Non è ambiguità tattica. È ambiguità genuina. Il concetto di fair use nasce in un’epoca in cui “trasformare” un’opera significava qualcosa di fisicamente percepibile. Cosa significhi “trasformare” miliardi di frammenti testuali in parametri matematici è una domanda che il diritto non ha ancora imparato a rispondere.

Non siamo qui per emettere sentenze. Siamo qui per descrivere la guerra. E la guerra è aperta.

Non è Solo una Guerra Editoriale

Sarebbe comodo pensare che questo riguardi i grandi media. Non è così.

Getty Images ha citato Stability AI per aver usato 12 milioni di fotografie, con i relativi metadati di copyright, per addestrare Stable Diffusion senza licenza. La causa è ancora in corso.

John Grisham, Sarah Silverman e decine di altri autori si sono uniti in class action contro OpenAI.Le principali etichette musicali hanno avviato contenziosi contro piattaforme di musica generativa AI.

Il pattern è identico in ogni settore: chi ha prodotto contenuti creativi nell’ultimo decennio li ha messi involontariamente a disposizione di chi costruisce sistemi per rimpiazzarli. E lo ha fatto gratis.

Chi gestisce la comunicazione di una PMI, chi produce video istituzionali, chi scrive cataloghi tecnici: fa parte di questo ecosistema. Non è spettatore. Se nell’articolo 3. Il caso Rhonda Patrick, i libri (finti) e altri inganni editoriali causati dall’uso improprio dell’AI abbiamo visto la frode intellettuale nella sua forma specifica, qui ne stiamo leggendo la versione sistemica e legale.

Il Danno che Non Aspetta i Tribunali

Fin qui abbiamo parlato di aule. Ma il danno più immediato non arriva dai giudici: arriva da Google.

Le AI Overview di Google rispondono alle query senza rimandare al sito che ha prodotto la risposta. I modelli conversazionali offrono sintesi dettagliate senza generare traffico verso le fonti originali. Il 30% di calo del traffico organico in diciotto mesi che l’agenzia di Bologna ha misurato non è un’eccezione: è la norma per chiunque avesse costruito visibilità su contenuti informativi.

Questo è il secondo giro dell’enshittification. Prima le piattaforme usano i contenuti per attrarre utenti. Poi si mettono tra i contenuti e gli utenti, tenendosi il traffico. Prima Google indicizzava la tua guida e ti mandava visitatori. Ora Google legge la tua guida, ci costruisce una risposta e trattiene l’utente.

Il meccanismo non è illegale. È semplicemente devastante per chi aveva costruito una strategia di contenuto sul traffico organico. È la stessa dinamica che nel primo articolo 1. AI Slop abbiamo chiamato con il suo nome: il contenuto originale si degrada mentre il contenuto AI prolifera. Due facce dello stesso meccanismo.

Cosa Puoi Fare Adesso (e Cosa Non Cambierà)

La risposta onesta è scomoda: il danno pregrasso non è recuperabile. I tuoi contenuti sono già nei dataset. Nessun processo ti restituirà le trecento ore del 2016.

Quello che puoi fare è smettere di finanziare volontariamente la prossima tornata di estrazione. Alcune misure concrete, parziali ma non inutili.

Proteggi i nuovi contenuti dai crawler AI. Il file robots.txt del tuo sito può includere direttive specifiche per GPTBot (OpenAI), CCBot (Common Crawl), Google-Extended e altri crawler di addestramento. Non è una garanzia assoluta, ma segnala esplicitamente che il tuo sito non è disponibile per l’addestramento.

Considera licenze esplicite. Pubblicare contenuti con licenze che vietano l’uso in sistemi AI crea un record legale, utile se la giurisprudenza dovesse evolversi.

Valuta il watermarking digitale. Per contenuti visivi e documenti, esistono soluzioni di watermarking invisibile che tracciano l’origine dei file. Limitato, ma non irrilevante in un contesto legale.

Ripensa la strategia di contenuto. La risposta alla disintermediazione del traffico organico non è smettere di produrre contenuti: è produrre contenuti che i modelli AI non possono rimpiazzare. Formati esperienziali, comunità chiuse, newsletter a iscrizione, contenuti fondati su relazioni e contesti locali. Il generico è già stato estratto. L’originale autentico è ancora tuo. Per il quadro più ampio su come i tribunali stanno reagendo a questo sistema, vedi  10. Il Processo .

Il Campo è Recintato. La Domanda è Cosa Semini Adesso.

L’enclosure inglese del Settecento non si è invertita. Le terre comuni non sono tornate ai contadini. La rendita è rimasta a chi le aveva recintate, e la legge ha ratificato il fatto compiuto.

Il parallelo digitale non è più confortante. I parametri dei modelli non verranno cancellati per sentenza giudiziaria. Anche una vittoria del NYT non svuota i modelli già addestrati. Il corpus è dentro la macchina: è diventato matematica, e la matematica non ha autori.

La battaglia legale in corso va seguita perché stabilisce norme per il futuro: per i prossimi round di addestramento, per le prossime generazioni di modelli. Ma chi produce contenuti adesso non può aspettare il verdetto.

Può, invece, smettere di aspettarsi che il campo comune esista ancora. Non esiste. È recintato.

L’unica posizione difensiva sensata è capire che i contenuti prodotti per il web aperto sono materiale di addestramento per chiunque li raccolga. E decidere, con piena consapevolezza, cosa vale ancora la pena coltivare, per chi, e dove.

Il grano che coltivi in casa tua appartiene ancora a te. Quello che lasci nel campo aperto, no.

Fonti consultate:

  • Complaint NYT v. OpenAI, No. 23-CV-11195, S.D.N.Y., dicembre 2023
  • Opinione giudice Stein, 4 aprile 2025: diniego motion to dismiss per direct infringement 
  • Nelson Mullins IP Blog, luglio 2025: preservation order ChatGPT log
  • WebProNews, gennaio 2026: ordine divulgazione 20 milioni di log anonimi; class action autori vs OpenAI
  • Filing processuali OpenAI, giugno 2025: fair use ruling in Bartz v. Anthropic e Kadrey v. Meta
  • McKool Smith AI Litigation tracker, ottobre 2025: Getty Images v. Stability AI
Coordonnées
Davide Schiano