Rendere i sistemi di AI più solidi e sicuri - OCSE - Format Research

Compatibilité
Sauvegarder(0)
partager

 25 settembre 2025

L’OCSE rileva crescenti sforzi per la trasparenza tra i principali sviluppatori di intelligenza artificiale

Secondo un nuovo rapporto dell’OCSE, i principali sviluppatori di intelligenza artificiale stanno adottando misure significative per rendere i loro sistemi più solidi e sicuri. 

Come gestiscono i rischi gli sviluppatori di intelligenza artificiale? Le analisi delle risposte al quadro di reporting del Codice di Condotta del Processo di Hiroshima per l’intelligenza artificiale  analizzano la rendicontazione volontaria sulla trasparenza nell’ambito del Processo di Hiroshima per l’intelligenza artificiale del G7 da parte di aziende tecnologiche e di telecomunicazioni, nonché di istituti di consulenza, ricerca e formazione, tra cui Anthropic, Google, Microsoft, NTT, OpenAI, Salesforce e Fujitsu.

L’analisi mostra che molte organizzazioni stanno sviluppando metodi sempre più sofisticati per valutare e mitigare i rischi, tra cui test avversari e strumenti basati sull’intelligenza artificiale per comprendere meglio il comportamento dei modelli e migliorarne l’affidabilità. Le aziende tecnologiche più grandi tendono ad adottare pratiche più avanzate, in particolare nella valutazione dei rischi sistemici e sociali.

Il rapporto rileva inoltre che i principali attori dell’IA riconoscono sempre più l’importanza di condividere informazioni sulla gestione del rischio per creare fiducia, favorire l’apprendimento tra pari e creare ambienti più prevedibili per l’innovazione e gli investimenti. Tuttavia, gli strumenti di verifica della provenienza tecnica, come la filigrana, le firme crittografiche e le credenziali dei contenuti, rimangono limitati, fatta eccezione per alcune grandi aziende.

Maggiore trasparenza è fondamentale

“Una maggiore trasparenza è fondamentale per creare fiducia nell’intelligenza artificiale e accelerarne l’adozione. Fornendo punti di riferimento comuni, la segnalazione volontaria può contribuire a diffondere le migliori pratiche, ridurre la frammentazione normativa e promuovere l’adozione dell’IA in tutti i settori dell’economia, anche da parte delle piccole imprese”, ha affermato Jerry Sheehan, Direttore per la Scienza, la Tecnologia e l’Innovazione dell’OCSE.

“Nella definizione di aspettative comuni in materia di trasparenza, l’Hiroshima AI Process Reporting Framework può svolgere un ruolo prezioso semplificando il processo di reporting. In futuro, potrebbe anche aiutare le organizzazioni ad allinearsi alle aspettative di reporting emergenti, man mano che la tecnologia e le pratiche di governance dell’intelligenza artificiale continuano a progredire.” Amanda Craig, Senior Director, Responsible AI Public Policy, Microsoft.

Sviluppato sotto la presidenza italiana del G7 nel 2024 con il contributo di aziende, mondo accademico e società civile, il quadro di rendicontazione volontaria dell’OCSE fornisce le basi per approcci coordinati per un’IA sicura, protetta e affidabile. Supporta l’attuazione del Processo di Hiroshima per l’IA, avviato sotto la presidenza giapponese del G7 nel 2023.

Rendere i sistemi di AI più solidi e sicuri – (Foto di Gerd Altmann da Pixabay)
Coordonnées
redazione