22 Settembre, 2025
Data Care nell’era degli agenti AI: qualità, governance e responsabilità condivisa
Indice degli argomenti
ToggleIntroduzione
Riportiamo i dati salienti della tavola rotonda ‘Data Care in the Age of AI: Towards Agentic AI’ che si è tenuta la scorsa settimana al DMS di Torino 2025. Federico Bonelli, CEO di RES IT, era tra gli speaker e ha affrontato insieme agli altri partecipanti il tema del data care in uno scenario che cambia velocemente con l’introduzione degli agenti di intelligenza artificiale. La tesi emersa è semplice quanto impegnativa: l’AI amplifica il valore dei dati, ma rende ancora più critico tutto ciò che sta “a monte”, tra cui qualità, governance, linguaggio comune, processi e ruoli. Senza questi fondamentali, gli agenti diventano acceleratori…di errori.
Dal dato come “report” al dato come “carburante”
Negli anni il dato è servito soprattutto per analisi e dashboard. Oggi alimenta sistemi (anche autonomi) che scalano rapidamente e impattano processi decisionali. Questo aumenta il rischio domino: un’anomalia a monte si propaga in minuti. Data care significa quindi:
- Affidabilità orientata allo scopo (data quality “fitness for use”, non generica).
- Conformità legale ed etica nel trattamento.
- Tracciabilità (lineage, cataloghi, ruoli come i data steward).
- Governance dinamica che si adatta a modelli, policy e infrastrutture in evoluzione.
Agenti AI: cosa sono (davvero) e cosa non sono
Molti manager confondono gli agenti con un “chatbot evoluto”. Un agente è un guscio software attorno a un LLM o a un sistema RAG che esegue azioni su sistemi esterni. Oggi il loro uso più maturo è:
- Automatizzare compiti a basso valore (estrazioni, normalizzazioni, controlli di coerenza, proposte di regole di qualità).
- Ridurre la fatica operativa mantenendo l’umano al centro per la decisione finale.
Quello che non dovremmo delegare agli agenti sono le decisioni manageriali ad alto impatto, che richiedono visione strategica e responsabilità. Sono strumenti eccellenti nell’azione “banale e ripetibile”, pericolosi se usati come oracoli.
Linguaggio comune e fiducia: la base organizzativa
Senza un vocabolario condiviso i numeri non sono confrontabili perché la stessa metrica può significare cose diverse tra funzioni. Il risultato è sfiducia e conflitti. Servono:
- Cataloghi e metadati per sapere quale colonna è quel
- Semantic layer per guidare BI conversazionale e agenti verso i campi corretti.
- Democratizzazione con controllo: dare accesso e strumenti, ma entro policy chiare e verificabili.
Questo è possibile solo se esiste una cultura del dato condivisa, capace di rendere ogni definizione non solo comprensibile e affidabile, ma anche riconosciuta e adottata in modo coerente da tutta l’organizzazione.
Centralizzare la governance, non i dati
Il punto chiave non è accentrare fisicamente tutti i data store, ma centralizzare la competenza di governo. Il livello centrale definisce policy, modelli semantici, regole di accesso e procedure di validazione, garantendo tracciabilità e auditability dei dati. Le unità di business, a loro volta, possono modellare e utilizzare i propri dataset entro queste cornici, mantenendo la velocità operativa e la vicinanza al contesto applicativo.
Questo approccio consente di bilanciare esigenze spesso contrapposte: da un lato la necessità di controllo e conformità normativa, dall’altro la flessibilità di chi deve trasformare i dati in decisioni quotidiane. Evita l’imposizione di “data lake obbligatori” che rischiano di diventare colli di bottiglia e permette invece di creare un ecosistema distribuito ma coerente, dove la fiducia nei dati è garantita a tutti i livelli.
Il fai-da-te dei dati: come incanalarlo
Excel (e oggi gli LLM) facilitano analisi self-service, un approccio utile, ma non privo di rischi. Durante la tavola rotonda, sono emerse alcune buone pratiche:
- Strumenti familiari ma governati (es. spreadsheet aziendali con tracciamento e versioning).
- Cicli rapidi di test e rilascio su agenti e regole di qualità, per arginare errori prima che propaghino.
- Human-in-the-loop standardizzato come step di processo.
- Certificazione delle analisi critiche: alcune non devono essere self-service.
Drift dei modelli e dipendenza dai vendor
I modelli evolvono costantemente, sia attraverso nuove versioni rilasciate dai provider sia con gli aggiornamenti dei modelli interni. Ogni aggiornamento può introdurre cambiamenti nei comportamenti e nei risultati, con impatti non sempre immediatamente visibili. Per gestire al meglio questa dinamicità, servono alcune accortezze:
- Compatibilità e regressioni
Ogni nuova versione va validata con test di non-regressione, in grado di verificare che i comportamenti consolidati non vengano compromessi. È utile prevedere anche guardrail per contenere output indesiderati o incoerenti. - Configurazioni “future-proof”
Isolare il più possibile prompt, tool e policy dal modello sottostante riduce i rischi di lock-in e facilita la sostituzione o l’aggiornamento del modello senza dover riprogettare l’intero sistema. - Osservabilità continua
Monitorare costantemente la qualità degli output, con metriche e feedback strutturati, permette di intercettare tempestivamente deviazioni e cali di prestazioni, mantenendo affidabilità e coerenza nel tempo.
Cosa chiedere (subito) agli agenti
Durante la tavola rotonda è emerso che, al di là delle visioni di lungo periodo, esistono già oggi applicazioni concrete e sensate degli LLM nella gestione dei dati. Non parliamo di scenari futuristici, ma di casi d’uso che possono portare valore immediato se inquadrati correttamente e supportati da un adeguato controllo umano:
- Monitoraggio data quality con suggerimento di regole (dal basso verso l’alto, senza affidarsi ad un “pilota automatico”).
- Classificazioni e arricchimenti su testi/mail/ticket (mood, intent, routing), con esecuzione assistita.
- Riduzione del “foglio bianco”: generazione di bozze di cataloghi, glossari, mapping, poi validate da data steward.
Ruoli e responsabilità: evitare la “maledizione del POC”
Molti progetti di AI rischiano di rimanere esercizi di stile, senza un reale impatto sul business. Per superarli servono alcuni elementi concreti di metodo e governance:
- Responsabilità distribuita: il business definisce obiettivi e impatti, IT e Data curano la messa a terra tecnologica, mentre risk e compliance garantiscono i necessari guardrail.
- Metriche di valore: gli indicatori devono essere chiari fin dall’inizio (tempo risparmiato, errori evitati, SLA migliorati). Se non si raggiungono, è importante avere kill criteria che permettano di interrompere il progetto.
- Change management: formazione del management su cosa sia un agente e cosa può (o non può) fare.
Conclusioni: tornare ai fondamentali, accelerare con criterio
Gli agenti non sostituiscono la disciplina del dato: la rendono imprescindibile. Qualità orientata allo scopo, governance viva, linguaggio comune e responsabilità chiare sono la piattaforma per ottenere benefici reali. L’automazione intelligente oggi è soprattutto togliere lavoro ripetitivo e ridurre tempi di processo, lasciando all’umano le decisioni. È qui che il data care fa la differenza.
Takeaway operativi
- È utile centralizzare le regole, non i dati: policy e competenze al centro, esecuzione nelle unità.
- I metadati vengono prima dei modelli: cataloghi, lineage e semantic layer abilitano agenti e BI conversazionale.
- “Human-in-the-loop” è obbligatorio su attività critiche e decisioni.
- Sono consigliati test continui (quality, drift, regressioni) e rilascio incrementale.
Democratizzazione sorvegliata: sì a un approccio self-service, ma con tracciabilità, certificazioni e veto su analisi ad alto rischio.
Sai che sulla nostra pagina LinkedIn puoi trovare tutti gli aggiornamenti sulle nostre partecipazioni agli eventi e sulle novità del settore?
Se non ci segui ancora, questo è il momento giusto per farlo! VAI
Condividi questo articolo
Scarica il white paper Low Code a supporto della modernizzazione dei processi
COMPILA IL FORM PER RICEVERE IL CASO DI SUCCESSO
Questo si chiuderà in 0 secondi