Data Care nell’era degli agenti AI: qualità, governance e responsabilità condivisa - Gruppo RES

Compatibilità
Salva(0)
Condividi
Salta al contenuto

22 Settembre, 2025

Data Care nell’era degli agenti AI: qualità, governance e responsabilità condivisa

Data Care nell’era degli agenti AI: qualità, governance e responsabilità condivisa

Introduzione

Riportiamo i dati salienti della tavola rotonda ‘Data Care in the Age of AI: Towards Agentic AI’ che si è tenuta la scorsa settimana al DMS di Torino 2025. Federico Bonelli, CEO di RES IT, era tra gli speaker e ha affrontato insieme agli altri partecipanti il tema del data care in uno scenario che cambia velocemente con l’introduzione degli agenti di intelligenza artificiale. La tesi emersa è semplice quanto impegnativa: l’AI amplifica il valore dei dati, ma rende ancora più critico tutto ciò che sta “a monte”, tra cui qualità, governance, linguaggio comune, processi e ruoli. Senza questi fondamentali, gli agenti diventano acceleratori…di errori.

Dal dato come “report” al dato come “carburante”

Negli anni il dato è servito soprattutto per analisi e dashboard. Oggi alimenta sistemi (anche autonomi) che scalano rapidamente e impattano processi decisionali. Questo aumenta il rischio domino: un’anomalia a monte si propaga in minuti. Data care significa quindi:

  • Affidabilità orientata allo scopo (data quality “fitness for use”, non generica).
  • Conformità legale ed etica nel trattamento.
  • Tracciabilità (lineage, cataloghi, ruoli come i data steward).
  • Governance dinamica che si adatta a modelli, policy e infrastrutture in evoluzione.

Agenti AI: cosa sono (davvero) e cosa non sono

Molti manager confondono gli agenti con un “chatbot evoluto”. Un agente è un guscio software attorno a un LLM o a un sistema RAG che esegue azioni su sistemi esterni. Oggi il loro uso più maturo è:

  • Automatizzare compiti a basso valore (estrazioni, normalizzazioni, controlli di coerenza, proposte di regole di qualità).
  • Ridurre la fatica operativa mantenendo l’umano al centro per la decisione finale.

Quello che non dovremmo delegare agli agenti sono le decisioni manageriali ad alto impatto, che richiedono visione strategica e responsabilità. Sono strumenti eccellenti nell’azione “banale e ripetibile”, pericolosi se usati come oracoli.

Linguaggio comune e fiducia: la base organizzativa

Senza un vocabolario condiviso i numeri non sono confrontabili perché la stessa metrica può significare cose diverse tra funzioni. Il risultato è sfiducia e conflitti. Servono:

  • Cataloghi e metadati per sapere quale colonna è quel
  • Semantic layer per guidare BI conversazionale e agenti verso i campi corretti.
  • Democratizzazione con controllo: dare accesso e strumenti, ma entro policy chiare e verificabili.

Questo è possibile solo se esiste una cultura del dato condivisa, capace di rendere ogni definizione non solo comprensibile e affidabile, ma anche riconosciuta e adottata in modo coerente da tutta l’organizzazione.

Centralizzare la governance, non i dati

Il punto chiave non è accentrare fisicamente tutti i data store, ma centralizzare la competenza di governo. Il livello centrale definisce policy, modelli semantici, regole di accesso e procedure di validazione, garantendo tracciabilità e auditability dei dati. Le unità di business, a loro volta, possono modellare e utilizzare i propri dataset entro queste cornici, mantenendo la velocità operativa e la vicinanza al contesto applicativo.

Questo approccio consente di bilanciare esigenze spesso contrapposte: da un lato la necessità di controllo e conformità normativa, dall’altro la flessibilità di chi deve trasformare i dati in decisioni quotidiane. Evita l’imposizione di “data lake obbligatori” che rischiano di diventare colli di bottiglia e permette invece di creare un ecosistema distribuito ma coerente, dove la fiducia nei dati è garantita a tutti i livelli.

Il fai-da-te dei dati: come incanalarlo

Excel (e oggi gli LLM) facilitano analisi self-service, un approccio utile, ma non privo di rischi. Durante la tavola rotonda, sono emerse alcune buone pratiche:

  • Strumenti familiari ma governati (es. spreadsheet aziendali con tracciamento e versioning).
  • Cicli rapidi di test e rilascio su agenti e regole di qualità, per arginare errori prima che propaghino.
  • Human-in-the-loop standardizzato come step di processo.
  • Certificazione delle analisi critiche: alcune non devono essere self-service.

Drift dei modelli e dipendenza dai vendor

I modelli evolvono costantemente, sia attraverso nuove versioni rilasciate dai provider sia con gli aggiornamenti dei modelli interni. Ogni aggiornamento può introdurre cambiamenti nei comportamenti e nei risultati, con impatti non sempre immediatamente visibili. Per gestire al meglio questa dinamicità, servono alcune accortezze:

  • Compatibilità e regressioni
    Ogni nuova versione va validata con test di non-regressione, in grado di verificare che i comportamenti consolidati non vengano compromessi. È utile prevedere anche guardrail per contenere output indesiderati o incoerenti.
  • Configurazioni “future-proof”
    Isolare il più possibile prompt, tool e policy dal modello sottostante riduce i rischi di lock-in e facilita la sostituzione o l’aggiornamento del modello senza dover riprogettare l’intero sistema.
  • Osservabilità continua
    Monitorare costantemente la qualità degli output, con metriche e feedback strutturati, permette di intercettare tempestivamente deviazioni e cali di prestazioni, mantenendo affidabilità e coerenza nel tempo.

Cosa chiedere (subito) agli agenti

Durante la tavola rotonda è emerso che, al di là delle visioni di lungo periodo, esistono già oggi applicazioni concrete e sensate degli LLM nella gestione dei dati. Non parliamo di scenari futuristici, ma di casi d’uso che possono portare valore immediato se inquadrati correttamente e supportati da un adeguato controllo umano:

  • Monitoraggio data quality con suggerimento di regole (dal basso verso l’alto, senza affidarsi ad un “pilota automatico”).
  • Classificazioni e arricchimenti su testi/mail/ticket (mood, intent, routing), con esecuzione assistita.
  • Riduzione del “foglio bianco”: generazione di bozze di cataloghi, glossari, mapping, poi validate da data steward.

Ruoli e responsabilità: evitare la “maledizione del POC”

Molti progetti di AI rischiano di rimanere esercizi di stile, senza un reale impatto sul business. Per superarli servono alcuni elementi concreti di metodo e governance:

  • Responsabilità distribuita: il business definisce obiettivi e impatti, IT e Data curano la messa a terra tecnologica, mentre risk e compliance garantiscono i necessari guardrail.
  • Metriche di valore: gli indicatori devono essere chiari fin dall’inizio (tempo risparmiato, errori evitati, SLA migliorati). Se non si raggiungono, è importante avere kill criteria che permettano di interrompere il progetto.
  • Change management: formazione del management su cosa sia un agente e cosa può (o non può) fare.

Conclusioni: tornare ai fondamentali, accelerare con criterio

Gli agenti non sostituiscono la disciplina del dato: la rendono imprescindibile. Qualità orientata allo scopo, governance viva, linguaggio comune e responsabilità chiare sono la piattaforma per ottenere benefici reali. L’automazione intelligente oggi è soprattutto togliere lavoro ripetitivo e ridurre tempi di processo, lasciando all’umano le decisioni. È qui che il data care fa la differenza.

Takeaway operativi

  • È utile centralizzare le regole, non i dati: policy e competenze al centro, esecuzione nelle unità.
  • I metadati vengono prima dei modelli: cataloghi, lineage e semantic layer abilitano agenti e BI conversazionale.
  • “Human-in-the-loop” è obbligatorio su attività critiche e decisioni.
  • Sono consigliati test continui (quality, drift, regressioni) e rilascio incrementale.

Democratizzazione sorvegliata: sì a un approccio self-service, ma con tracciabilità, certificazioni e veto su analisi ad alto rischio.

Sai che sulla nostra pagina LinkedIn puoi trovare tutti gli aggiornamenti sulle nostre partecipazioni agli eventi e sulle novità del settore?
Se non ci segui ancora, questo è il momento giusto per farlo! VAI

Condividi questo articolo

Page load link
modal-check

Scarica il white paper Low Code a supporto della modernizzazione dei processi

COMPILA IL FORM PER RICEVERE IL CASO DI SUCCESSO

Questo si chiuderà in 0 secondi

Torna in cima
Recapiti
Federica Squaiella