Il 27 novembre, negli spazi dell’Università Link di Roma, si è svolta l’edizione 2025 di TEDx Lex Machina, un evento che abbiamo organizzato insieme all’Ateneoper guardare oltre l’incrocio fra diritto e tecnologia.
Il cuore dell’evento è partito da un interrogativo semplice e inquieto allo stesso tempo:
Cosa significa vivere in un’epoca in cui le macchine esprimono giudizi, fanno previsioni, danno consigli e il più delle volte sbagliano?
Professioniste e professionisti del diritto, della tecnologia, della ricerca e dell’arte hanno portato sul palco hanno portato sul palco storie e casi reali che mostrano come l’intelligenza artificiale stia ridefinendo frontiere che davamo per acquisite: responsabilità, dignità, libertà. Tutti interventi molto diversi, ma legati da una domanda di fondo: riusciremo a governare l’AI mantenendo saldo il ruolo dell’essere umano?
Quando un algoritmo orienta il giudizio
La prima a riportare la discussione sulla vita concreta è stata Alberta Antonucci. Il suo esempio — un professore americano che utilizza ChatGPT per accusare studenti di plagio — ha mostrato quanto sia facile cedere alla tentazione della scorciatoia tecnologica.
Dietro un gesto apparentemente banale si nasconde il rischio più profondo: abituarsi a delegare il giudizio a una macchina per fretta o comodità, lasciando che decisioni delicate dipendano da un output automatico. In gioco non c’è un semplice esercizio accademico, ma il futuro di una persona.
Floriana Ferrara ha poi riportato l’attenzione sulle radici dell’intelligenza artificiale. La storia della disciplina — dalle reti neurali degli anni Cinquanta ai modelli contemporanei — ricorda che ogni salto tecnologico prende forma dentro una società che deve imparare a comprenderlo. Per questo, ha osservato, il rischio maggiore non è l’AI in sé, ma un suo uso inconsapevole.
Giustizia, rischi e limiti dell’automazione
Ernesto Belisario ha affrontato le implicazioni dell’AI nelle aule di giustizia. Bias, qualità del dato, trasparenza ridotta: quando un algoritmo entra nei processi decisionali, questi fattori diventano determinanti. Gli strumenti possono supportare il lavoro umano, ma non sostituirne l’intuizione, soprattutto quando una valutazione incide sulla vita di una persona.
Francesca Bartolini ha portato un ricordo personale: un giro su un’auto a guida autonoma a San Francisco. Un’esperienza che intreccia stupore e timore e introduce dilemmi etici tuttora irrisolti.
Chi deve essere tutelato in una situazione estrema? Il passeggero o il pedone? Il giovane o l’anziano? L’esperimento “Moral Machine” del MIT ha mostrato che non esiste una risposta univoca.
Bartolini ha poi richiamato un secondo ambito in cui questi sistemi già oggi incidono: la valutazione del merito creditizio e il calcolo della probabilità di recidiva. Qui emerge un punto decisivo di tutti gli interventi: la parte davvero determinante resta il dato iniziale. Ciò che consegniamo alle macchine definisce la loro capacità di valutazione. È in quel passaggio che si gioca la responsabilità umana.
Norme, mercati e un equilibrio difficile
Il racconto della giornata è proseguito con l’intervento di Silvia Stefanelli, che ha illustrato la rapidità con cui l’Europa sta producendo norme per governare il digitale. Centinaia di articoli in pochi anni, un quadro ambizioso ma complesso che rischia di frenare la competitività. Il “Digital Omnibus”, da poco pubblicato, tenta di semplificare senza tradire i valori di partenza.
Ferruccio Maria Sbarbaro ha introdotto una domanda che oggi divide giuristi e accademici: l’intelligenza artificiale può avere una personalità giuridica? Un interrogativo che smette di essere astratto quando si parla di sistemi capaci di agire autonomamente. A chi attribuire colpa e responsabilità quando la tecnologia interviene in modo non supervisionato? Il vuoto attuale rende evidente la necessità di ripensare alcune categorie del diritto.
Arte, identità e comportamenti digitali
Luca Martinelli ha mostrato come le forme narrative cambino quando entrano in gioco modelli capaci di interagire con chi legge o osserva. Installazioni e opere che reagiscono al pubblico invitano a riconsiderare il concetto stesso di identità.
Gaia Morelli, infine, ha riportato il discorso su un terreno doloroso e molto attuale: il revenge porn. Lo ha definito una violenza collettiva, perché ogni visualizzazione e ogni condivisione contribuisce alla diffusione del contenuto. In un mondo in cui un click può trasformarsi in una condanna sociale, la tutela della dignità non riguarda solo la vittima o l’aggressore, ma anche chi osserva passivamente.
Cosa ci lascia TEDx Lex Machina 2025
Il filo che attraversa i diversi interventi è chiaro: nessuna tecnologia è neutra. Ogni algoritmo incorpora scelte, limiti e presupposti. E ogni società deve decidere quanto spazio concedere a sistemi che influenzano giudizi, relazioni e anche diritti.
TEDx Lex Machina 2025 ha mostrato che l’AI non è solo un tema tecnico o normativo ma una questione che tocca da vicino cultura e identità. Richiede competenze, ma anche responsabilità e consapevolezza.
Il futuro non sarà definito dalle macchine, ma da come le persone scelgono di usarle, supervisionarle e, quando serve, mettere un limite.