16/10/2025
Beniamino Buonocore
L'Osservatorio GAILIH ha proposto un momento di riflessioni utile ad arricchire il patrimonio delle idee e favorirne la circolazione.
La relazione stretta tra persone e innovazioni tecnologiche passa, necessariamente, da un approccio etico capace di definire come le tecnologie, intelligenza artificiale compresa, possono e devono entrare a far parte della vita delle persone.
Se ne parla molto, e dovremmo continuare a parlarne e ragionarci perché la questione è complessa visto il numero di soggetti che partecipano a questa realtà e ai diversi interessi che si muovono dietro le innovazioni tecnologiche. Interessi non necessariamente economici.
Occasione di ragionamento è stato l'evento promosso dall'Università Unimarconi, attraverso l'Osservatorio GAILIH, dal titolo: "IA e etica: tecnologie, valori, impatti". Un momento di riflessioni utile ad arricchire il patrimonio delle idee e favorirne la circolazione. Tra i vari relatori, ho avuto l'onore (e il piacere) di portare il mio contributo sia personale, che come Socio Ferpi.
I temi trattati sono stati diversi: si è parlato di come evolvono velocemente le AI e le applicazioni ad essa collegate; si è parlato del quadro normativo con riferimento alla recente legge 132/2025; si è ragionato di medicina, salute, dati sensibili; si è parlato di comunicazione e relazioni e di nuovi modelli lavorativi, così come nuove possibilità per il lavoro (sicurezza, produzione, redditi) grazie all'AI.
Tutti argomenti di grande attualità che disegnano una realtà in cui siamo immersi ogni giorno. Tutti con un ambito di riflessione comune: come mettiamo in relazione le persone e le innovazioni tecnologiche.
Dai vari interventi che ho ascoltato, e dal mio contributo sul tema AI e comunicazione, porto con me due elementi di riflessione e attenzione futura.
La prima è che abbiamo la necessità di definire un modello di etica antropocentrica che possa indicare una via univoca per le innovazioni, che collochi l'essere umano al centro assoluto della riflessione morale e che consideri il valore e il benessere umano come unico criterio di riferimento capace di enfatizzare la differenza ontologica tra persone umane e artefatti tecnologici, dove anche il sistema AI più sofisticato rimane uno strumento, privo di valore morale intrinseco e di dignità propria, dove la sua legittimità deriva interamente dalla capacità di servire fini umani.
Va chiarito che un modello totalmente antropocentrico non è totalmente funzionale perché c'è da considerare, ad esempio, che in tutte le rivoluzioni industriali precedenti le innovazioni sacrificano delle persone per creare vantaggi per le generazioni future. Un modello radicalmente antropocentrico rischia di far impantanare il sistema, nel migliore dei casi, se non addirittura di creare delle sacche di sviluppo che non considerano minimamente un modello human-centric, creando poi delle disuguaglianze sociali, addirittura tra nazioni e stati. O c'è da considerare il fatto che esiste una differenza tra sistemi antropocentrici che considerano il singolo e quelli che considerano la collettività.
In sostanza le criticità esistono. E qui veniamo al secondo aspetto.
È fondamentale che le persone partecipino in maniera attiva alle innovazioni, perché oggi le innovazioni non sono qualcosa di "altro" rispetto alle persone, ma sono parte integrante del modello di vita.
La strada principale per questo modello di integrazione è la formazione, non solo tecnica, ma soprattutto capace di mostrare alle persone che le AI, e le innovazioni in genere, possono aiutare a "fare meglio ciò che già si sa fare bene". Le AI non vanno demonizzate, ma neanche viste come la soluzione a tutto. C'è la necessità di aprirci a una nuova intelligenza che è capace di molte cose, ma che è anche il rispecchiamento di ciò che siamo nel momento in cui la utilizziamo.
La formazione deve portare le persone verso l'idea della competenza orizzontale, quella capace di esplorare risposte diverse a partire non necessariamente dalla domanda, ma capace di "immaginare" scenari e soluzioni.
C'è un aspetto che spesso si sottovaluta: il pensiero umano è per gran parte analogico, ovvero funziona per similitudine. Poi si è evoluto verso il pensiero digitale, che altro non è che l'elaborazione razionale delle risposte e delle domande.
Il pensiero analogico è quello dell'esperienza, dell'immaginazione; è il pensiero dei sognatori, dei filosofi, di coloro che sanno immaginarsi il mondo per quello che ancora non è.
Se continuiamo a vivere in un mondo in cui concepiamo le competenze come esclusivamente verticali, e che di fatto giustificano quello che non sappiamo, allora con le AI e con le innovazioni non c'è storia. Saranno sempre più efficaci.
Nel mio intervento ho portato un mio punto di vista che penso possa essere di aiuto a tutti: per utilizzare al meglio le AI dobbiamo dotarci di 3C.
Chiarezza di pensiero, che vuol dire sapere cosa vogliamo, saper raccontare la nostra idea e la nostra necessità. Se non sappiamo raccontarlo le AI non capiranno e si sostituiranno a noi.
Creatività, che vuol dire immaginare le cose, saper creare schemi anche con cose che non necessariamente qualcuno ha collegato.
Competenza, che è la somma tra le nozioni e la nostra esperienza. Le AI non hanno un vissuto, forse hanno le nozioni (forse).
Relazionarsi con le AI attraverso queste 3C porta la parte umana all'interno dei processi AI. E forse, dico forse, è il miglior modo per avere un'etica antropocentrica.