AI Act, dalle ambizioni europee alla compliance aziendale. Ecco gli impatti per le imprese

Compatibilità
Salva(0)
Condividi

Che l’Intelligenza Artificiale rappresenti uno degli elementi di competitività più importanti per ciascuna organizzazione è ormai un dato universalmente noto. Si tratta infatti di una rivoluzione tecnologica che se da un lato consente un ripensamento dei processi offrendo opportunità inimmaginabili in termini di efficacia ed efficienza, dall’altro porta con sé inevitabili rischi e potenziali criticità che non possono essere ignorate. Sebbene il mercato dell’IA e il livello di adozione di tali sistemi da parte di imprese e PA assumano connotati diversificati nei vari continenti, tutto il mondo ha i riflettori puntati sull’IA e sono numerose e variegate le iniziative messe in campo da Stati e organizzazioni internazionali.

Considerata la straordinaria rilevanza del tema, l’Istituto per la Competitività ha realizzato il paper Innovare con Intelligenza. Linee guida per un’IA responsabile nei settori pubblico e privato nel quale viene fornita una fotografia dello stato di sviluppo ed adozione dei sistemi di IA ed offerta una panoramica dettagliata delle varie iniziative messe in campo dai decisori politici, dai regolatori e dalle organizzazioni internazionali per guidare l’evoluzione di un fenomeno tanto interessante quanto complesso.

L’AI ACT E L’AMBIZIONE EUROPEA

In un contesto generale di enorme fermento l’UE, così come accaduto con l’adozione del GDPR, punta a ricoprire un ruolo guida a livello globale e a tal fine la scorsa settimana si è finalmente conclusa – dopo quasi 3 anni dal lancio della proposta da parte della Commissione europea – la procedura di adozione dell’AI Act, il primo ecosistema normativo che punta a disciplinare in maniera uniforme e organica il fenomeno dell’IA.

L’ambizione europea di assurgere a guida globale in materia emerge chiaramente dall’analisi dell’ambito applicativo che include fornitori, utenti, importatori, distributori o produttori di sistemi di intelligenza artificiale e, dunque, tutti gli attori coinvolti nell’IA, ivi comprese le aziende non stabilite nel territorio dell’UE, a condizione che forniscano beni o servizi a consumatori dell’Unione o trattino dati relativi a persone situate nella stessa.

Fanno eccezione, per espressa previsione normativa, le tecnologie di intelligenza artificiale utilizzate esclusivamente per scopi militari, di difesa o di sicurezza nazionale (che rientrano nella competenza degli Stati membri), quelli necessari per attività di ricerca e sviluppo scientifico relativi ai sistemi di IA e quelli utilizzati da persone fisiche per motivi non professionali.

L’impianto normativo proposto dal regolamento, partendo dalla constatazione della grande varietà e dalle diverse potenzialità applicative dei sistemi di IA, è condivisibilmente incentrato su un approccio fondato sul rischio che distingue i sistemi di IA in tre macro-categorie cui sono associati obblighi – fino a giungere a divieti – diversi: applicazioni e sistemi che creano un rischio inaccettabile, sistemi ad alto rischio e sistemi a basso rischio.

Nella prima categoria, dunque oggetto di divieto espresso di commercializzazione ed utilizzo, rientrano una serie di pratiche e sistemi tra cui quelli che utilizzano tecniche volutamente subliminali o manipolative, volte a influenzare il comportamento di una persona e ad indurla ad assumere decisioni che non avrebbe altrimenti preso, tecnologie che sfruttino la vulnerabilità di determinati soggetti, i sistemi automatizzati di social scoring, così come sistemi di polizia predittiva e quelli che analizzano l’inferenza delle emozioni nell’ambito dei rapporti lavorativi o delle istituzioni scolastiche, fatta eccezione per motivi di salute o di sicurezza.
Oggetto di grandissimo dibattito sono stati i sistemi che consentono l’identificazione biometrica che sono stati ammessi per specifiche finalità previa valutazione degli impatti sui diritti fondamentali dei cittadini e adozione di un provvedimento di un giudice o di un ente indipendente, con la possibilità, inoltre, di ricorrere ad una procedura d’urgenza che consente di attivare la sorveglianza biometrica e di richiedere l’autorizzazione entro le 24 ore successive (in caso di mancato rilascio del provvedimento autorizzatorio si prevede l’immediata interruzione e la cancellazione dei dati raccolti). Ai garanti nazionali dei dati personali e del mercato è fatto obbligo di spedire ogni anno alla Commissione un rapporto sull’uso dei sistemi di riconoscimento biometrico in tempo reale, così come di eventuali usi proibiti ferma restando la facoltà per gli Stati dell’Unione di adottare leggi nazionali per ampliare il raggio d’azione della sorveglianza biometrica.

Nella seconda categoria rientrano invece sistemi di IA destinati a essere utilizzati come componente di sicurezza di un prodotto oppure quelli elencati nell’Allegato III (es. dispositivi medici, strumenti di reclutamento, gestione delle risorse umane e dei lavoratori e gestione delle infrastrutture critiche). Ci riferiamo, dunque, a sistemi ammessi a patto che non producano un rischio significativo di danni alla salute, alla sicurezza, ai diritti fondamentali, all’ambiente, alla democrazia e allo Stato di diritto. Rispetto a tali sistemi, il regolamento individua i criteri da seguire per valutare se un sistema di IA presenta alti rischi e fissa una serie di requisiti obbligatori oltre a subordinare l’accesso al mercato europeo di tali sistemi ad una valutazione della conformità ex ante secondo procedure dettagliatamente descritte.

Infine, i sistemi a rischio limitato e a rischio minimo, per i quali il regolamento non fissa obblighi specifici, fatta salva la facoltà delle imprese di dotarsi di codici di condotta aggiuntivi, da osservare su base volontaria.

Per quanto riguarda, invece, i sistemi di AI per uso generale, ossia in grado di svolgere compiti diversi come la produzione di testi o immagini e allenati attraverso un’enorme mole di dati non categorizzati (si pensi a GPT-4 o LaMDA), il regolamento prescrive agli sviluppatori di assicurarsi che i contenuti siano marcati in un sistema leggibile da una macchina e siano chiaramente riconoscibili come generati da un’AI al fine di garantire adeguata consapevolezza da parte degli utenti. Nel tentativo di arginare il dilagare delle fake news si prevede inoltre che i contenuti deepfake siano etichettati come tali (attraverso sistemi come il watermarking, la filigrana digitale applicata a foto o video).

Specifica attenzione è dedicata ai sistemi di alto impatto, ossia quelli che avendo maggiori effetti sulla popolazione, sono soggetti ad obblighi più stringenti su sicurezza informatica, trasparenza dei processi di addestramento e condivisione della documentazione tecnica prima di sbarcare sul mercato. Sul punto il regolamento fissa una soglia – modificabile se opportuno per rispondere alle evoluzioni tecnologiche future – per identificare tali sistemi, identificata in un potere di calcolo pari a 10^25 FLOPs (floating point operations per second, un’unità di misura della capacità computazionale).

Dal punto di vista dei controlli, l’AI Act delega molte attività alle autorità locali che sono chiamate ad istituire almeno una sandbox regolatoria, ossia uno schema che consenta di compiere test in un ambiente sicuro, in deroga alla normativa, nella logica di non rallentare l’innovazione – a livello nazionale, entro 2 anni dall’entrata in vigore del regolamento.

Per quanto riguarda gli aspetti di governance, il regolamento proposto istituisce a livello dell’Unione un board europeo per l’intelligenza artificiale composto dalle autorità nazionali di controllo e al fine di fornire supporto tecnico al Comitato e alla Commissione istituisce un forum consultivo (advisory forum) rappresentativo in maniera bilanciata dei vari stakeholders inclusa industria, PMI, start-up, società civile e università e di cui sono membri permanenti una serie di soggetti individuati tra cui l’Agenzia europea per la Cybersecurity (ENISA).

LA COMPLIANCE AZIENDALE

Se questi sono i cardini della nuova disciplina contenuta nell’AI Act, è evidente l’impatto che essa eserciterà sulla produzione e sull’utilizzo di strumenti basati sull’IA. La normativa, infatti, classifica i sistemi in diverse categorie di rischio sulla base del loro potenziale impatto sugli utenti, sui loro diritti e sulla società fissando requisiti via via più rigorosi fino a vietare quei sistemi dal rischio inaccettabile secondo una metodologia già messa in campo in materia di protezione dei dati personali.

Sebbene si tratti dunque di un approccio già noto alle aziende, è evidente la complessità degli adempimenti prescritti. Ed infatti, al netto dei divieti di produzione ed impiego dei sistemi dal rischio inaccettabile che evidentemente non richiedono la messa in campo di specifiche attività oltre all’astensione, per quanto concerne ad esempio i sistemi di IA per scopi generali che, per definizione possono essere utilizzati e adattati a un’ampia gamma di applicazioni per le quali non sono stati intenzionalmente e specificamente progettati, i fornitori saranno tenuti ad osservare numerosi obblighi di documentazione, trasparenza e registrazione e, nello specifico, prima di lanciare un modello di base dovranno dimostrare di aver mappato e mitigato eventuali rischi sociali e di sicurezza prevedibili, dovranno registrare i propri modelli nella banca dati UE e dovranno prestare specifica attenzione ai set di dati utilizzati e dunque alle fonti di tali dati. I fornitori di modelli di base utilizzati nell’“intelligenza artificiale generativa” poi dovranno prestare specifica attenzione alla tutela del diritto d’autore e dunque dovranno garantire i loro modelli non generino contenuti in violazione della disciplina europea e dovranno osservare specifici obblighi di reportistica circa le modalità di impiego di materiali protetti da copyright.

Si tratta di prescrizioni importanti la cui inosservanza può determinare l’applicazione di sanzioni che vanno da 10 a 40 milioni di euro o dal 2% al 7% del fatturato annuo globale dell’azienda, a seconda della gravità della violazione, in considerazione delle quali il regolamento ha tracciato un percorso piuttosto lungo. E infatti, nonostante lo stesso entri in vigore 20 giorni dopo la pubblicazione sulla Gazzetta Ufficiale dell’Unione europea, per la piena efficacia di moltissime delle sue disposizioni dovranno trascorrere 24 mesi. Le regole sui sistemi AI vietati si applicheranno, in particolare, dopo 6 mesi mentre le previsioni relative alle GPAI (General purpose AI o intelligenza artificiale generale) dopo 12 mesi, tranne per i modelli di GPAI che sono stati immessi sul mercato prima di questa data (24 mesi). Gli obblighi fissati per i sistemi AI ad alto rischio invece saranno imperativi dopo 36 mesi mentre le limitazioni previste per i sistemi AI ad alto rischio destinati all’uso da parte di autorità pubbliche, che erano già sul mercato prima dell’entrata in vigore dell’AI Act, avranno addirittura un arco di tolleranza di 48 mesi.

CONCLUSIONI

Con l’adozione dell’AI Act si apre un capitolo nuovo nella storia dell’IA. Seppur con tutti i limiti di una normativa che cerca di guidare lo sviluppo di una tecnologia in rapidissima evoluzione e sebbene con tutti i rischi connessi al fatto che sistemi normativi particolarmente articolati possono frenare l’innovazione, l’UE ha certamente il merito di aver messo a fuoco alcune delle principali questioni e di aver fissato dei paletti che segnano i confini di un approccio incentrato sull’uomo e sul rispetto dei diritti fondamentali.

Le aziende sono chiamate dunque, per quanto con tempistiche abbastanza lunghe, a ripensare i propri modelli nella logica di assicurare la piena osservanza del regolamento e scongiurare il rischio di vedersi comminare sanzioni molto importanti. È una sfida importante che chiama ad un esercizio niente affatto semplice: quello di trovare il giusto equilibrio tra compliance e opportunità – forse meglio dire necessità, visto l’impatto sulla competitività che i sistemi di IA sono in grado di esercitare – di stare al passo con l’evoluzione che questa tecnologia è in grado di assicurare.

Recapiti
Silvia COMPAGNUCCI