Home PA Digitale Maratona FORUM PA | Epistemologia della post-verità: un gioco di specchi interdisciplinare
La distinzione tra vero e falso è sempre più sfumata e complessa nella società digitale contemporanea. La perenne connessione e l’accesso immediato a una vasta quantità di informazioni sono ormai la norma. I rischi e le disuguaglianze arrivano da una realtà frammentata, in cui diverse comunità online e gruppi sociali hanno le proprie “verità”. E allora come definire la verità nell’epoca della post-verità? È a questa domanda che si è cercato di rispondere, nell’ambito della “Maratona FPA”, con l’intervento di Ivana Bartoletti, Esperta di Privacy e AI Governance, autrice e Vicepresidente, Wipro, Mario De Caro, Professore ordinario di Filosofia Morale, dell’Università Roma Tre, Assunta Viteritti, Professoressa associata presso il Dipartimento Scienze Economiche e Sociali dell’Università di Roma la Sapienza, e Giorgia Lodi, Tecnologa presso l’Istituto di Scienze e Tecnologie della Cognizione (ISTC) del Consiglio Nazionale delle Ricerche (CNR)
18 Ottobre 2024
Sapersi districare nel mare magnum delle informazioni, spesso sintetiche, è tutt’altro che semplice. La distinzione tra vero e falso è sempre più sfumata e complessa nella società digitale contemporanea. Ci viene restituita un Italia a più colori, caratterizzata dal digital divide, una forma di disuguaglianza sociale, prima ancora che digitale, e da una realtà frammentata, in cui ogni comunità virtuale ha la propria “verità”. Ma come definire la verità nell’epoca della post-verità?
È a questa domanda che si è cercato di rispondere, nell’ambito della “Maratona FORUM PA. Smart Life Festival 2024”, durante il talk “Epistemologia della post-verità: un gioco di specchi interdisciplinare”, moderato da Gianni Dominici, Amministratore delegato di FPA, con l’intervento di Ivana Bartoletti, Esperta di Privacy e AI Governance, autrice e Vicepresidente, Wipro, Mario De Caro, Professore ordinario di Filosofia Morale, dell’Università Roma Tre, Assunta Viteritti, Professoressa associata presso il Dipartimento Scienze Economiche e Sociali dell’Università di Roma la Sapienza, e Giorgia Lodi, Tecnologa presso l’Istituto di Scienze e Tecnologie della Cognizione (ISTC) del Consiglio Nazionale delle Ricerche (CNR).
Rapporto tra società, scienza e tecnologia
Il termine “post-verità” ha origine dal rapporto tra società, scienza e tecnologia, e ha una storia complessa. “Ha due accezioni principali”, evidenzia il professore De caro. La prima (di basso livello) fu coniata da un assistente dell’ex presidente Trump e si riferisce alle bugie dette con forza e vigore dai politici (soprattutto quelli populisti); è legata al fatto che le persone spesso credono a cose a cui non si dovrebbe dare seguito. De Caro riporta un tipico esempio di post-verità:
“Da quando esiste il web 2.0, i terrapiattisti si sono moltiplicati per 100 volte, perché, con i social media, una teoria così assurda come quella della terra piatta è diventata popolarissima”.
La seconda accezione del termine post-verità ha origine da un tentativo filosofico di matrice francese che risale agli anni ’70: il postmodernismo. Nato come tentativo emancipatorio nel sostenere che “il termine verità in realtà copre dei giochi di potere”, è poi degenerato nel mettere in discussione la stessa esistenza della verità. Questo ha portato alla diffusione di teorie assurde e alla mancanza di standard di correttezza, come dimostra il famoso effetto dunning-kruger studiato in psicologia.
Verità e falsità nella pratica scientifica
Ivana Bartoletti introduce il concetto di immersione totale nella scienza e nella tecnica, sottolineando come esse siano presenti in ogni aspetto della vita umana. Bartoletti cita Bruno Latour che applica la metafora delle ‘masse mancanti’ al mondo sociale, ossia della tendenza a trascurare l’importanza della scienza e della tecnica nella società. La sociologia, per lungo tempo, si è infatti concentrata solo sugli esseri umani, trascurando il ruolo della scienza, della materialità e della tecnica nella quotidianità.
E sul tema del “Vero, falso” Bartoletti commenta:
“La parola verità non entra nella pratica scientifica che si affida a diverse prove di forza nella conoscenza”
Nella pratica scientifica la parola ‘verità’ non è centrale, piuttosto si cerca di dare forza alle conoscenze basate su prove e sperimentazioni. Si riporta anche un riferimento al testo ‘Manufacturing Refused Knowledge in the Age of Epistemic Pluralism’, realizzato dopo la pandemia, sul tema della falsità: un focus sui gruppi che si fanno portatori di esperienze, di post-verità.
Ruolo dei dati nella conoscenza
“Dobbiamo assumere la capacità, a livello territoriale, di trasformare i dati grezzi in informazioni, le informazioni in conoscenza e la conoscenza in decisioni. Questa è una sorta di finta equazione che dovrebbe accompagnare la gestione del territorio. Alla base delle decisioni ci dovrebbe essere la conoscenza, ma alla base della conoscenza ci sono i dati e, ancor prima, i dati grezzi”, Gianni Dominici.
E, allora, qual è il rapporto tra dati e conoscenza?
Giorgia Lodi sottolinea che i dati sono alla base della conoscenza e delle decisioni; tuttavia, i dati stessi possano essere discriminatori. “Il dato lo raccolgo, è un fatto incontrovertibile. Potrebbe aiutare per capire che quello che stiamo dicendo è falso. Un esempio è il caso dei flussi migratori”. Spesso si sente dire che “siamo invasi”, un concetto alimentato dai media. Tuttavia, analizzando i dati, si scopre che questa invasione non è realmente tale; molti migranti arrivano ma poi si trasferiscono in altri paesi. Nonostante ciò, ci convinciamo di essere invasi dagli immigrati senza andare a vedere il dato stesso.
Si discute l’importanza dei dati aperti nel migliorare la qualità dei dati e alimentare i modelli di intelligenza artificiale. Viene sottolineato il ruolo dell’Open Data Institute nel promuovere l’apertura dei dati e la partecipazione civica nella creazione di valore pubblico.
“Il principale fondamento per costruire un’infrastruttura dei dati per alimentare quei modelli di intelligenza artificiale è il dato aperto”, Giorgia Lodi.
Innovazione e rischi
Si parla dei potenziali rischi legati all’innovazione tecnologica. Si sottolinea che le tecnologie non sono neutre e che le scelte politiche influenzano la raccolta e la presentazione dei dati, rappresentando una dinamica di potere.
“Ogni Artefatto tecnologico è fatto da scelte e da parametri che ovviamente rappresentano le dinamiche di potere che sono inserite nella nostra società. Questo si trasferisce anche ai dati che sono considerati la verità di questo mondo. Però anche il dato rappresenta di per sé una dinamica di potere”, Ivana Bartoletti.
Partendo dal presupposto che non c’è nulla di neutro nell’innovazione tecnologica, come non c’è mai stato tutto il corso della storia, soprattutto quando si parla di nuove tecnologie dotate di affordance. Le affordance dell’intelligenza artificiale si riferiscono alle capacità inserite nei prodotti o sistemi tecnologici, che possono essere utilizzate in modi positivi o negativi. Ad esempio, l’uso di fakes nella distorsione della realtà. Ovviamente, l’intelligenza artificiale può perpetuare le disuguaglianze esistenti, ed è qui che il ruolo dell’amministrazione diventa cruciale. Queste tecnologie possono essere utilizzate per superare, ad esempio, le disuguaglianze presenti, ma questa – per Bartoletti – è una scelta politica, non tecnologica.
Conclusioni
L’intelligenza artificiale richiede l’applicazione del principio di precauzione, con legislazione, controlli e codici etici per gestire le presunte capacità umane delle macchine. Bisogna prepararsi a questa eventualità senza escludere il potenziale pericolo. L’intelligenza artificiale presenta rischi e utilità, ma va oltre le proclamazioni catastrofiche: “è un termine sbagliato, poiché non è né artificiale né intelligente, ma è un prodotto umano che riflette la realtà”, come ha evidenziato Ivana Bartoletti. È uno strumento di grande utilità, ma richiede un investimento e un uso prudente.