Focus
Quando si parla di intelligenza artificiale, si pensa immediatamente alla competizione fra i colossi tecnologici del nostro tempo, Stati Uniti e Cina. L’Unione Europea sembra relegata a un ruolo da comprimario, tutt’al più a un ruolo di mercato di sbocco per le tecnologie che arrivano da oltreoceano e da Oriente. In questo scenario si inserisce l’AI Act, che segna una svolta nell’approccio alla regolamentazione dell’intelligenza artificiale, ponendosi come il primo quadro normativo organico dedicato a questa tecnologia.
L’obiettivo dichiarato è duplice: assicurare che l’innovazione si sviluppi nel rispetto dei diritti fondamentali, della sicurezza e della trasparenza, senza però soffocare la competitività del settore. Tuttavia, si assiste a un push-back da parte di numerose aziende che, attraverso l’appello “Stop the Clock”, parlano di un quadro normativo che “mette a rischio le ambizioni di intelligenza artificiale europea”, sia per chi sviluppa tecnologie sia per chi le utilizza.
Il fulcro dell’AI Act è un approccio basato sul rischio. I sistemi di AI vengono divisi in quattro categorie: rischio inaccettabile (per esempio i sistemi di social scoring di stampo cinese), alto rischio (come gli strumenti usati in ambito sanitario, di sicurezza o giustizia), rischio limitato e rischio minimo. Solo i sistemi con rischio elevato dovranno soddisfare stringenti requisiti in termini di trasparenza, sicurezza, supervisione umana e gestione dei dati. Il testo impone obblighi specifici anche su modelli di AI generativa come ChatGPT: dovranno dichiarare quali dati sono stati usati, gestire il rischio di copyright e adottare misure per prevenire contenuti illeciti.
Limiti e criticità
In questo articolo de Il Sole 24 Ore, Michele Kettmaier spiega bene la tensione fra le esigenze normative e quelle di business, evidenziando limiti e criticità dell’AI Act, sottolineando come la norma sia tardiva e sottovaluti la velocità dell’evoluzione tecnologica. Il rischio, in questo caso è di produrre testi senza dotarsi prima di un’infrastruttura tecnico-industriale autonoma, situazione che ha portato le imprese europee a chiedere una moratoria su una legge che avrebbe dovuto proteggerle.
Il principale limite della regolamentazione è infatti il rischio di rallentare l’innovazione. Le startup e le PMI potrebbero subire un aggravio di costi e oneri burocratici, rischiando di perdere terreno rispetto a giganti extra-europei meno vincolati. Restano, inoltre, zone grigie, sia interpretative sia tecniche: definire il “rischio” di un algoritmo non è semplice e potrebbe penalizzare la competitività.
Aperture e opportunità di business
Rimane tuttavia un importante aspetto culturale, un’affermazione di responsabilità, di tracciabilità delle scelte che pone al centro le persone, in giustapposizione al modello USA che privilegia le forze di mercato e a quello cinese, basato sul totale controllo dello Stato. L’UE propone una terza possibilità, affermando che l’AI è un campo di decisione collettiva, dove non tutto è da regolare ma nulla può essere lasciato opaco. La posta in gioco è il potere di decidere che cosa può fare un modello, chi lo addestra, chi lo controlla, chi definisce le soglie della sua opacità.
L’AI Act, se ben implementato, può essere un volano di crescita per il mercato europeo, accrescendo la fiducia di consumatori, imprese e amministrazioni pubbliche verso l’adozione di soluzioni AI. Le aziende che saranno in grado di offrire tecnologia “compliant by design” potranno acquisire un forte vantaggio competitivo, esportando modelli e servizi anche fuori dall’UE e diventando fornitori affidabili in settori altamente regolamentati quali il bancario, sanitario, automotive.
Tenere conto degli aspetti etici dello sviluppo economico rappresenta l’affermazione della centralità dell’essere umano nei confronti di una tecnologia efficiente, in grado di costruire modelli predittivi efficaci ma che non è in grado di immaginare ciò che ancora non esiste.
Tre domande a
- Natasha Perfetti, Marketing Director, SB Italia
In questo numero Natasha Perfetti ci porta il suo punto di vista sull’importanza di regolamentare un territorio complesso come l’AI e su quali vantaggi, sfide e opportunità derivino dall’operare nel contesto delle nuove normative.
SB Italia è stata la prima azienda italiana a ottenere la certificazione ISO/IEC 42001 per la gestione dell’AI: quali sono stati i principali motivi che vi hanno spinto a intraprendere questo percorso e quali vantaggi concreti avete riscontrato fino ad oggi?
Abbiamo scelto di intraprendere il percorso verso la certificazione ISO/IEC 42001 con grande convinzione, ben prima che diventasse un tema di tendenza. L’obiettivo non era “certificarsi” per primi, ma costruire un framework solido, trasparente e governato per la gestione dell’Intelligenza Artificiale.
Come azienda che sviluppa soluzioni proprietarie basate su AI — come la piattaforma AI-Docs — sentivamo la responsabilità di adottare un approccio serio, etico e sostenibile, capace di proteggere i dati, tutelare gli utenti e garantire la qualità dei risultati.
I vantaggi che abbiamo riscontrato sono molteplici: da un lato, abbiamo migliorato la nostra capacità di governare i progetti AI in modo tracciabile, definendo ruoli, responsabilità e processi di controllo. Dall’altro, la certificazione ci ha aiutato a rafforzare la fiducia dei clienti e dei partner, dimostrando concretamente il nostro impegno verso una tecnologia sicura e trasparente.
ISO 42001 non è stato un traguardo formale, ma un vero acceleratore culturale e organizzativo, che ha rafforzato la nostra visione strategica sull’AI.
Quanto è importante, secondo voi, il ruolo degli standard internazionali per guidare lo sviluppo responsabile dell’AI e quale direzione pensate prenderà il settore nei prossimi anni sotto questo punto di vista?
Gli standard internazionali rappresentano una bussola fondamentale per guidare lo sviluppo dell’AI in modo equilibrato, responsabile e orientato al valore.
L’Intelligenza Artificiale, per sua natura, introduce elementi nuovi e complessi: opacità nei modelli, variabilità dei risultati, dipendenza dalla qualità dei dati, impatti non sempre prevedibili. In questo contesto, strumenti come l’ISO/IEC 42001 e normative come l’AI Act europeo offrono un quadro chiaro per affrontare il tema non solo come innovazione tecnologica, ma come responsabilità collettiva.
Nei prossimi anni, è prevedibile che il settore si muova in una doppia direzione:
- da un lato verso una maggiore regolamentazione, che impone standard minimi e trasparenza nei modelli;
- dall’altro verso una maturità organizzativa, dove le aziende adotteranno in modo strutturato sistemi di gestione dell’AI, integrandoli nei propri processi di governance, risk management e compliance.
Chi saprà muoversi in questa direzione — anticipando piuttosto che rincorrere — sarà più credibile, competitivo e sostenibile nel lungo periodo.
Avete recentemente pubblicato “AI Compliance e Certificazione”, un manuale che affronta il tema della gestione dei rischi legati all’intelligenza artificiale: quali sono, secondo te, le principali sfide che individui, organizzazioni e società devono affrontare oggi in questo ambito e come possono essere efficacemente gestite?
Le sfide legate all’adozione dell’AI sono complesse, interconnesse e riguardano aspetti tecnici, organizzativi ed etici.
A livello tecnico, una delle criticità più rilevanti è la qualità dei dati: senza dati puliti, coerenti e tracciabili, qualsiasi modello rischia di produrre risultati distorti. Inoltre, l’integrazione tra sistemi AI e architetture aziendali già esistenti è spesso complessa e richiede una riprogettazione profonda.
Dal punto di vista organizzativo, l’ostacolo più diffuso è la resistenza al cambiamento. L’AI modifica ruoli, competenze e responsabilità, e questo può generare timori e incertezza. Solo un approccio graduale, inclusivo e fortemente orientato alla formazione può trasformare il timore in opportunità.
Infine, non si può ignorare l’aspetto etico e sociale. L’AI non è mai neutra: i modelli riflettono i dati su cui sono addestrati, e questo comporta rischi di bias, discriminazioni o decisioni non trasparenti. È fondamentale agire in modo responsabile, definendo regole chiare, meccanismi di controllo e policy di utilizzo.
Nella nostra esperienza, l’approccio più efficace è stato quello di unire tecnologia e governance, partendo da progetti pilota, coinvolgendo tutte le funzioni aziendali e adottando riferimenti normativi solidi come la ISO 42001.
La vera sfida non è domare l’AI, ma renderla alleata del business e della società, nel rispetto dei valori umani.