Falsi digitali, video, foto e audio che imitano utenti, notizie ricreate in modo talmente realistico da passare per vere, contenuti modificati per diffondere falsità. Il tutto sviluppato con software di Intelligenza Artificiale (IA). Questi sono solo alcuni esempi di cosa vuol dire deepfake e il Garante per la Protezione dei Dati Personali (GPDP) ce lo ricorda con un vademecum incentrato sulla materia.
Nella pagina dedicata al “prontuario” sul deepfake il Garante fornisce anche un link su tutti i documenti, comunicati, interviste e provvedimenti del tema. Da notificare l’ultima pubblicazione, un Think Tank con il Parlamento europeo sul deepfake e l’impatto che ha sui minori online. Si sottolinea infatti il potenziale nella sfera dell’intrattenimento ma anche nel “diffondere fake news, creare contenuti non consensuali e minare la fiducia nei media digitali”.
Questo è il problema di fondo del deepfake: l’allontanamento in termini di fiducia degli utenti dalle istituzioni e dalle reali fonti di informazione. Il gap che si va a creare è complesso da colmare, ma gli ultimi sforzi delle Autorità italiane ed europee hanno dato i natali a nuovi aggiornamenti nella legislazione. Stiamo parlando dell’AI Act e il Digital Services Act (DSA), costantemente aggiornati e attualmente una delle normative più omogenee e attuali al mondo.
“Il falso che ti «ruba» la faccia (e la privacy)”
Il documento principale del GPDP vuole informare sulle diverse possibili pratiche di deepfake che un utente può ritrovarsi a fronteggiare.
Il primo e uno dei più comuni è il furto di identità. Grazie all’uso improprio dell’IA si riesce a “ricostruire contesti e situazioni mai effettivamente avvenuti”, costituendo una grave minaccia alla riservatezza e dignità della persona.
La condivisione online di immagini, audio, video e testi a scopo di ricatto, vendetta o denigrazione possono riguardare non solo privati, ma anche politici e personalità pubbliche. La pratica in questione ha lo scopo di influenzare l’opinione pubblica e il voto, orientando la libertà decisionale di gruppi estesi di persone.
Un fenomeno di cui si è molto parlato durante le ultime votazioni nazionali e europee, ma non solo (guardando oltreoceano, in America). Sono molte le tecnologie avanzate che hanno provato a combattere l’erosione della fiducia e quindi aiutato giornalisti e users a riconoscere il deepfake, come TrueMedia.org. Uno strumento di IA che combatte l’IA, o meglio, il suo cattivo utilizzo ed è capace di rilevare il 90% dei casi di deepfake.
Quali le misure di difesa?
Proprio per contenere il fenomeno, il GPDP conclude la sua scheda informativa con le buone pratiche da tenere a mente per difendersi efficacemente:
Evitare di diffondere foto e video di sè stessi e dei propri cari in maniera indiscriminata;
Imparare a riconoscere un deepfake con gli strumenti istituzionali messi a disposizione;
Evitare di ricondividere probabili contenuti di deepfake;
Rivolgersi al Garante o alla polizia per notificare qualsiasi caso, sia di “avvistamento” che di deepfake subito.
Articolo di T.S.
L’articolo GPDP e deepfake: vademecum e atti su fenomeno dilagante proviene da Notiziario USPI.