Fra le recenti normative europee di alto profilo, passibili di avere un impatto diretto e notevole sulle società e sulle economie europee, figurano anche le politiche digitali condotte dall’UE nel campo dell’intelligenza artificiale (IA). In questo ambito spicca l’Artificial Intelligence Act, una pietra miliare nel quadro delle proposte legislative orizzontali sull’intelligenza artificiale, applicabili cioè a tutti i sistemi di IA usati o immessi sul mercato nell’UE. L’AI Act ambisce senz’altro a proporsi come uno standard regolativo globale, di ispirazione per altre giurisdizioni, analogamente a quanto avvenuto con il GDPR.
Il Regolamento 2024/1689 sull’intelligenza artificiale (Artificial Intelligence Act, AI Act) è il punto di arrivo di un percorso apertosi con una Strategia europea sull’IA (2018), orientamenti etici elaborati da un gruppo di esperti ad alto livello (2019) e l’adozione di un Libro bianco sull’IA (2020) poi sottoposto a consultazione pubblica. Un Piano coordinato con gli Stati membri sull’IA (2018) è stato aggiornato nell’aprile 2021, quando la Commissione europea ha presentato la proposta di Regolamento. Raggiunto un accordo politico nel dicembre 2023, il Regolamento è stato adottato da Parlamento e Consiglio tra marzo e maggio 2024 ed è entrato in vigore il 1° agosto 2024. Si applicherà per la maggior parte dopo 24 mesi (anche se alcune sue parti saranno operative già dopo 6 mesi, altre ne richiederanno fino a 36).
L’AI Act si applica trasversalmente a tutti i sistemi di IA e segue un approccio “basato sul rischio” nei confronti della società: maggiore il rischio, più rigorose le regole. Distinti insiemi di regole si applicano quindi ai vari usi dell’IA secondo una loro classificazione per livelli di rischio (minimo, elevato, inaccettabile). Il rischio inaccettabile comporta una proibizione: ad esempio, sono vietati i sistemi di credito sociale, mentre l’identificazione biometrica remota in tempo reale è proibita con l’eccezione di casi di evidente minaccia di un attacco terroristico, ricerca di vittime o indagini su reati gravi da parte delle autorità degli Stati membri.
Stanti le evoluzioni tecnologiche intervenute dalla presentazione della proposta, soprattutto per quanto riguarda l’IA generativa, Parlamento e Consiglio hanno concordato nuove disposizioni rivolte ai sistemi di “IA per finalità generali” (general purpose AI, GPAI), anche noti come “modelli di base” (foundation models), vale a dire i grandi sistemi in grado di svolgere un'ampia gamma di compiti distintivi quali la generazione di video, testi, immagini. L’AI Act, oltre ad occuparsi di regolamentazione e ad istituire un nuovo quadro di governance europea, estende le misure a sostegno dell’innovazione e gli spazi di sperimentazione normativa (regulatory sandboxes).
Nel settembre 2022, la Commissione europea ha presentato una Direttiva sull'adeguamento delle norme sulla responsabilità civile extracontrattuale all'intelligenza artificiale (AI Liability Directive). La proposta mira a stabilire norme uniformi per l'accesso alle informazioni e l'alleggerimento dell'onere della prova in relazione ai danni causati dai sistemi di AI, garantendo una protezione più ampia per le vittime (persone fisiche o imprese) e contribuendo a maggiore fiducia verso l’AI. La discussione sull’atto, sospesa sino al consolidamento dell’AI Act, dovrà anche rivalutare la possibile sovrapposizione con la Direttiva sulla responsabilità per danno da prodotti difettosi (New Product Liability Directive), il cui iter legislativo è oggi in dirittura di arrivo dopo modifiche concordate da Parlamento e Consiglio.
Nel gennaio 2024 la Commissione ha presentato un pacchetto di misure per sostenere le start-up e le PMI europee nello sviluppo di un’IA affidabile tramite un accesso privilegiato alle capacità di supercalcolo europee. Il pacchetto ha ricompreso le seguenti parti.
· Una proposta legislativa per modificare il Regolamento 2021/1173, su cui si fonda il partenariato europeo per il supercalcolo EuroHPC JU, e adottata in giugno 2024 come Regolamento 2024/1732. L’atto espande le competenze di EuroHPC, così da collegarla allo sviluppo di “fabbriche dell’IA” (AI Factories). Dispone l’acquisizione e la messa in opera di supercomputer ottimizzati per l’IA, per consentire l’apprendimento automatico rapido e l'addestramento di grandi modelli di IA per finalità generali (GPAI), promuovendo sulla loro base anche lo sviluppo di una serie di applicazioni emergenti di IA.
· Una Decisione che istituisce un Ufficio per l’IA (AI Office) nella DG CNECT della Commissione. L’AI Office, istituito a tutti gli effetti nel maggio 2024, garantirà il coordinamento delle politiche europee sull’IA, raccorderà l’attuazione dell’AI Act e di altre normative pertinenti e supervisionerà in particolare l’IA per finalità generali.
· Due Decisioni di esecuzione con cui la Commissione ha istituito, con alcuni Stati membri, due consorzi per l'infrastruttura digitale europea (EDIC): ALT-EDIC, per sostenere lo sviluppo di grandi modelli linguistici europei, e EDIC LDT & CitiVerse, per sviluppare e potenziare i gemelli digitali locali e altre iniziative digitali per le smart communities.
· Una Comunicazione sulle start-up e l'innovazione nel settore dell’IA, che delinea un sostegno finanziario europeo per l’IA generativa, tramite i programmi Orizzonte Europa e Europa Digitale, attesta propositi di rilancio degli investimenti pubblici e privati e tratteggia un’accelerazione dello sviluppo e della diffusione degli spazi comuni europei dei dati.
Le linee guida politiche proposte da Von der Leyen nel luglio 2024 prospettano investimenti in tecnologie dirompenti e in innovazione legata all’IA, con le proposte di sviluppare con gli Stati membri una Apply AI Strategy e di creare uno European AI Research Council.