Conosci i rischi legali dell'uso di ChatGPT nella scrittura?

Fonte
Compatibilità
Salva(0)
Condividi

L’intelligenza artificiale sta rivoluzionando il modo in cui creiamo contenuti, offrendo strumenti potenti per generare testi in pochi secondi. Tuttavia, dietro questa innovazione si nascondono rischi legali da non sottovalutare – come abbiamo anticipato parlando dell’uso dell’intelligenza artificiale nel copywriting – soprattutto in ambito di responsabilità, copyright e protezione dei dati.

Chi detiene i diritti su un testo scritto dall’IA? È possibile violare il diritto d’autore anche senza saperlo? E quali sono le conseguenze legali se l’IA genera informazioni errate o diffamatorie? A queste e ad altre domande ci ha risposto Alessandra Delli Ponti, avvocato esperto in diritto delle nuove tecnologie e privacy e fondatrice dello Studio Legale Delli Ponti.

Quali sono i rischi, dal punto di vista legale, di utilizzare contenuti scritti dall’intelligenza artificiale?

Dal punto di vista legale, i rischi dell’utilizzo dell’intelligenza artificiale nella scrittura sono diversi. Ritengo che il principale sia rappresentato dal diritto d’autore. Sono due i punti critici:

  • il primo riguarda la protezione dei testi utilizzati dall’IA e dall’algoritmo;
  • il secondo ha a che fare con la protezione dell’output, ovvero l’eventuale protezione o tutela del contenuto generato dall’intelligenza artificiale.

Su questo secondo aspetto, precisiamo che nei principali ordinamenti (come UE, USA e UK), il diritto d’autore si riconosce solo a opere create da esseri umani. In realtà, i due punti critici sono strettamente correlati tra loro. Infatti, le IA generative vengono addestrate su grandi quantità di dati, spesso prelevati dal web. Se il contenuto prodotto dall’IA include parti di opere già esistenti e protette da copyright, l’utente che lo utilizza potrebbe essere ritenuto responsabile di una violazione, anche se inconsapevolmente.

Ma non è solo il diritto d’autore a poter rappresentare un rischio legale. Se l’intelligenza artificiale genera contenuti inesatti o dannosi, chi ne fa uso potrebbe essere ritenuto responsabile per diffamazione o danni anche reputazionali a terzi. Le informazioni generate dall’IA, infatti, possono essere errate, obsolete o fuorvianti, con potenziali conseguenze legali per chi le diffonde. L’IA, inoltre, potrebbe comportare il trattamento di dati personali di persone fisiche senza il loro consenso o comunque in modo non conforme alle norme sulla protezione dei dati, come il GDPR.

L’uso di contenuti creati dall’intelligenza artificiale, quindi, può comportare rischi legali da non sottovalutare. Tuttavia, questi non devono rappresentare un ostacolo, ma essere una guida per un uso consapevole di una tecnologia estremamente utile.

Focalizzandoci sul plagio e la violazione del diritto d’autore, perché e in quali casi questo può rappresentare un rischio concreto?

Indubbiamente, uno dei rischi è quello di cadere nel cosiddetto “plagio”, termine con cui si intende l’appropriazione indebita, totale o parziale, di un’opera dell’ingegno altrui, presentandola come propria, senza l’autorizzazione dell’autore e senza attribuirne la paternità, in violazione delle norme sul diritto d’autore.

Quando si parla di plagio di un testo, si fa dunque riferimento alla riproduzione non autorizzata di un’opera scritta, in violazione dei diritti esclusivi dell’autore. Il plagio può essere sia totale che parziale, ma anche, per così dire, “concettuale”: in tal caso non si copia il testo in maniera esatta, ma si riprendono la sua struttura o le idee in modo identico o quasi. Normalmente, per stabilire se un’opera è stata plagiata si analizzano vari elementi, ad esempio l’uso di espressioni uguali o molto simili, la struttura narrativa, la sequenza degli eventi e degli argomenti, oppure lo stile e la forma.

La violazione del diritto d’autore può riguardare sia l’illecito sfruttamento economico di un’opera altrui (lesione dei diritti patrimoniali) sia l’indebita attribuzione della paternità dell’opera (lesione dei diritti morali), trattandosi di due profili distinti ma entrambi tutelati dalla normativa vigente. La normativa sul diritto di autore è oramai una normativa solida con strumenti di tutela efficaci che consentono la possibilità di ottenere un risarcimento danni o il blocco della diffusione dell’opera copiata.

Stando alle norme attuali, chi può definirsi l’autore di un contenuto scritto dall’intelligenza artificiale?

Attualmente, in base alle norme italiane ed europee sul diritto d’autore, un contenuto scritto dall’intelligenza artificiale non può avere un autore umano riconosciuto automaticamente. Questo perché la normativa tutela solo le creazioni derivanti dall’ingegno umano, escludendo opere generate interamente da macchine. Se l’intelligenza artificiale viene utilizzata come strumento, la persona potrebbe rivendicare la paternità se ha apportato un proprio contributo creativo significativo. La responsabilità di eventuali imprecisioni non potrà che essere della persona che utilizza o si appropria del testo generato dall’intelligenza artificiale.

Quali sono le pratiche da evitare, nell’uso dell’AI, per non rischiare di incorrere in possibili problemi legali?

Il primo consiglio è di non fidarsi ciecamente dell’intelligenza artificiale. Si raccomanda quindi di verificare sempre la fonte e l’originalità dei testi: a questo proposito, esistono software anti-plagio – ad esempio, Copyscape, Turnitin e Grammarly – per verificare la somiglianza con contenuti già pubblicati. Inoltre, è importante controllare le informazioni e le fonti perché l’AI può cadere in errore, e anche l’uso di contenuti sbagliati può costituire un rischio per l’autore.

Oltre a questo, conviene sempre effettuare modifiche e personalizzare il testo proposto dall’IA per evitare l’ipotesi di plagio involontario: se l’intelligenza artificiale rappresenta solo un supporto e l’utente apporta modifiche significative, infatti, quest’ultimo può essere considerato l’autore, riducendo indubbiamente il rischio di plagio, anche inconsapevole.

Esiste poi un ulteriore problema: la trasparenza. Si tratta dell’obbligo (o il consiglio) di indicare se è stata utilizzata l’intelligenza artificiale per la produzione di un testo. Attualmente, non esiste una normativa italiana specifica che imponga l’obbligo generale di dichiarare l’uso dell’IA nella produzione di testi. Tuttavia, il disegno di legge sull’intelligenza artificiale in Italia contiene alcune disposizioni che, se passassero, richiederebbero la trasparenza sull’uso di questo strumento in determinati settori. Non solo: a livello europeo, l’AI Act introduce obblighi di trasparenza per i fornitori di sistemi di intelligenza artificiale. In particolare, i fornitori devono adottare misure per garantire la sicurezza e la protezione dei dati, oltre a informare gli utenti sull’uso dell’IA.

In sintesi, sebbene non esista un obbligo generale di dichiarare l’uso dell’IA nella produzione di testi, le normative emergenti in Italia e in Unione Europea stanno introducendo requisiti di trasparenza in settori specifici. È quindi consigliabile restare aggiornati sulle evoluzioni legislative per garantire la conformità alle norme vigenti.

Guardando al futuro, come si evolverà il quadro normativo di riferimento?

In questo ambito, il futuro normativo è rappresentato dal Regolamento sull’Intelligenza Artificiale (AI Act). Parliamo del Regolamento UE 1689/2024, approvato lo scorso anno, che prevede un’operatività per fasi. Dal 2 febbraio 2025 scorso, ad esempio, sono operative le disposizioni dell’AI Act relative ai sistemi che comportano rischi inaccettabili e all’alfabetizzazione digitale.

Per quanto riguarda il tema dei testi e dei contenuti generati dall’intelligenza artificiale, l’AI ACT contiene alcuni riferimenti interessanti anche al diritto d’autore. In generale, attraverso l’AI Act il legislatore ha voluto perseguire lo scopo di promuovere una legislazione unitaria e, quindi, rinvia e riprende i contenuti della legge sul diritto d’autore. Infatti, nei considerando 105 e 106 impone ai fornitori di sistemi di AI un generale obbligo di adempiere alla normativa europea in materia di diritto d’autore.

Il considerando 105, sottolinea l’importanza di rispettare i diritti degli autori e dei titolari dei testi utilizzati per addestrare i modelli di intelligenza artificiale.
Infatti, spesso i modelli utilizzano la tecnica dell’estrazione di testo e dati cosidetta “text and data mining” attraverso cui è possibile accedere a grandi quantità di testi, immagini, video e altri dati. Non tutti sanno, però, che questi contenuti sono spesso protetti dal diritto d’autore.

L’obbligo di trasparenza, secondo l’AI Act

Un altro punto interessante riguarda l’obbligo di trasparenza a cui abbiamo accennato. In relazione ai contenuti generati con l’ausilio di un sistema di AI, infatti, l’art. 50 comma 4 dell’AI ACT prevede in capo ai deployer (ossia i “distributori” o “utilizzatori” di sistemi AI) i seguenti obblighi:

I deployer di un sistema di IA che genera o manipola immagini o contenuti audio o video che costituiscono un «deepfake» rendono noto che il contenuto è stato generato o manipolato artificialmente. (…) Qualora il contenuto faccia parte di un’analoga opera o di un programma manifestamente artistici, creativi, satirici o fittizi, gli obblighi di trasparenza di cui al presente paragrafo si limitano all’obbligo di rivelare l’esistenza di tali contenuti generati o manipolati in modo adeguato, senza ostacolare l’esposizione o il godimento dell’opera.

I deployer di un sistema di AI che genera o manipola testo pubblicato allo scopo di informare il pubblico su questioni di interesse pubblico rendono noto che il testo è stato generato o manipolato artificialmente. Tale obbligo non si applica se l’uso è autorizzato dalla legge per accertare, prevenire, indagare o perseguire reati o se il contenuto generato dall’IA è stato sottoposto a un processo di revisione umana o di controllo editoriale e una persona fisica o giuridica detiene la responsabilità editoriale della pubblicazione del contenuto.”

Naturalmente, l’applicazione pratica di questa norma sarà un banco di prova interessante, soprattutto per le creazioni digitali, e già la sua interpretazione presenta qualche profilo di dubbio. Ecco, allora, qualche dettaglio in più che lo stesso Regolamento ci fornisce:

  • In relazione alle immagini e ai contenuti audio o video, il considerando 134 definisce il concetto di deep fake e, di conseguenza, quando si applica l’obbligo di trasparenza. In particolare, i deployer sono tenuti a rendere noto in modo chiaro e distinto che il contenuto è stato creato o manipolato artificialmente quando le immagini o i contenuti audio e video assomigliano notevolmente a persone, oggetti, luoghi, entità o eventi esistenti che potrebbero apparire falsamente autentici o veritieri a una persona (deep fake). In tale caso, quindi, i deployer dovranno etichettare le produzioni rivelandone l’origine artificiale.
  • Rispetto ai testi generati con l’ausilio di un sistema di AI, l’obbligo di rendere noto che il testo è stato creato con l’ausilio di un sistema di AI si applica se il testo ha lo scopo di informare il pubblico su questioni di interesse pubblico. L’obbligo, però, non si applica se il testo è stato revisionato da un essere umano. In questa ultima ipotesi, la questione riguarderà le modalità con cui fornire la prova che il contenuto pubblicato non sia il mero output di una macchina, ma il frutto di una elaborazione umana.

Il team di Noetica sta sperimentando da tempo le capacità dell’IA nella produzione di testi. Ci rendiamo conto delle sue potenzialità e pensiamo sia fondamentale integrarla nei processi di lavoro, ma le parole dell’avvocato Delli Ponti confermano ciò che pensiamo da tempo: l’apporto umano è insostituibile. L’intelligenza artificiale può essere utilizzata ma in modo consapevole, consci del fatto che richiede un’attenta supervisione da parte di figure esperte.

Desideri dare una svolta alla comunicazione della tua azienda e produrre testi coinvolgenti, approfonditi e capaci di scalare le SERP di Google? Affidati a Noetica: siamo una squadra di professionisti preparati e costantemente aggiornati, non solo sulle best practice del digital marketing ma anche nell’utilizzo dell’intelligenza artificiale. Contattaci e daremo nuova linfa ai tuoi testi aziendali!

Recapiti
Mara D'Angeli