Antonio Sinibaldi, dedicato alla comunicazione strategica e al marketing digitale dal 2001, autenticamente appassionato al web. Legato all'adagio "azioni giuste". Perché è facile muoversi, ma è difficile muoversi nella direzione corretta. Presente da relatore al Meeting 2025 di Deleganoi è oggi ospite, in prima pagina, di redigo.info, intervistato dal direttore Alessia Lupoi.
Ad Antonio Sinibaldi va riconosciuto l'approccio genuino al pubblico pur avendo egli tra le mani, da dover modellare, un contenuto tanto innovativo e rivoluzionario quanto, per questa stessa specificità, potenzialmente sovversivo. Direi, in definitiva, che ci si può far male che se ne sia utilizzatori non pratici od utenti, destinatari, consumatori con una certa capacità.
____________________________
Antonio, tra le professioni intellettuali ordinistiche o associative italiane, quella dei commercialisti ha introdotto nel proprio Codice deontologico le prime regole sull’uso dell’intelligenza artificiale negli studi professionali. L’IA può affiancare il lavoro del commercialista, ma non può sostituirne il giudizio, la firma, la responsabilità. Del resto, la Legge quadro di dicembre avvia una seria struttura normativa di base che impone responsabilità che tu sostanzi in controllo umano, verifica rigorosa delle fonti, tutela dei dati e sicurezza dei sistemi. Ricordi che le previste sanzioni vanno da tre a sei mesi di sospensione per chi utilizza l’IA in modo improprio o senza supervisione. Affermi che è “una svolta etica e culturale che anticipa lo spirito dell’AI Act europeo e ridisegna il rapporto tra tecnologia e professione: la macchina supporta, l’uomo decide.”.
Spiegheresti la svolta?
Con la consapevolezza di un professionista partendo dall’aggiornato Codice dell’Ordine dei Commercialisti e degli Esperti contabili.
Con una punta d’orgoglio sì, Alessia. Ogni professione attraversa un momento in cui deve chiedersi non solo cosa sta diventando, ma cosa vuole continuare a essere. È quel punto fragile e necessario in cui “il presente” si intreccia con “il futuro” e chiede una scelta, una direzione, un’assunzione di responsabilità. Il mondo dei Commercialisti [chissà se anche quello dei Consulenti del Lavoro, quello degli Avvocati, quello dei Tributaristi e via dicendo, N.d.R.] ci è arrivato adesso, in un tempo in cui l’intelligenza artificiale sembra insinuarsi ovunque promettendo efficienza, velocità, supporto e, a volte, un’illusione pericolosa: quella di poter sostituire il giudizio umano. Il Consiglio Nazionale dei Dottori Commercialisti e degli Esperti Contabili (CNDCEC) ha deciso di rispondere a questa trasformazione con un atto netto, necessario, coraggioso: l’IA entra nel codice deontologico, ma non dalla porta principale come protagonista del futuro, bensì dalla porta della consapevolezza, della prudenza, della responsabilità; quindi, non come un nuovo padrone tecnico del lavoro che “sa tutto”, ma come un ospite che va guidato, compreso, circoscritto e, soprattutto, controllato a vista. In questo punto si riconosce la statura di una categoria [la medesima che riconosciamo in molte, N.d.R.]: nel momento in cui sceglie di farsi carico sia degli strumenti che usa che del significato che, quegli stessi strumenti, avranno per il Paese Italia, per le imprese, per la fiducia dei cittadini.
L’intelligenza artificiale diventa, così, un terreno di confronto etico prima che tecnologico; un invito a fermarsi, a capire, a non confondere il supporto con la delega, la velocità con il valore, l’efficienza con la competenza. Il comunicato ufficiale dell’Ordine, pubblicato il 4 dicembre 2025, lo dice con una chiarezza che non lascia spazio al dubbio: l’IA può affiancare la professione, ma non può sostituire il giudizio umano. Non deve.
Perché non può?
Perché ciò che distingue un atto professionale da un’elaborazione automatica non è la qualità del testo o la precisione del calcolo, ma la responsabilità. E la responsabilità non è mai un algoritmo. È qui che nasce e germoglia la vera rivoluzione: l’articolo deontologico che cambia il rapporto tra professionista e tecnologia.
Per la prima volta, il codice etico dei commercialisti italiani [affianco al quale, a onor del vero, vanno considerati quelli di altre professioni in tempi simili di metabolizzazione e ingresso negli Studi, N.d.R.] introduce una norma che disciplina direttamente l’uso dell’intelligenza artificiale, una disposizione che si inserisce nel solco dei principi contenuti nel D.Lgs. 139/2005 (ordinamento della professione) e richiama l’obbligo più alto: tutelare il cliente attraverso competenza, diligenza e responsabilità personale. Il nuovo articolo stabilisce alcuni punti cardine che suonano come un patto tra professionista e società.
Aspetto di certo interesse, questo. Declineresti in check list?
E’ quanto farò per dare concretezza al focus dell’articolo sopraccitato. E dunque:
1. L’IA è un mezzo, non un decisore – Il commercialista può ricorrere a strumenti IA per analisi, ricerche, interpretazioni preliminari, simulazioni fiscali, organizzazione documentale, ma nessun output può essere adottato senza verifica, nessun parere può essere firmato se non nasce da un ragionamento umano. Possiamo definirlo un limite? No, piuttosto un “argine etico”.
2. Obbligo di controllo umano (“human oversight”) – Il professionista deve: verificare le informazioni generate dall’IA; controllare la coerenza normativa; correggere eventuali errori o “allucinazioni”; assumere la responsabilità finale dell’elaborato. In altre parole: la tecnologia assiste, ma il commercialista guida.
3. Obbligo di verifica delle fonti – La norma impone un principio fondamentale: nessun contenuto generato dall’IA può essere utilizzato senza riscontri certi.
Questo significa controllare: riferimenti normativi; scadenze fiscali; soglie e percentuali; circolari, prassi, giurisprudenza; coerenza con i dati reali del cliente. Un modello linguistico, per quanto avanzato, non conosce il valore di una responsabilità professionale; può, perciò, generare un testo, ma non può distinguere il vero dal verosimile. Questo compito deve restare umano.
4. Sicurezza dei sistemi e protezione dei dati – Il Codice sancisce un obbligo già previsto dal GDPR, ma spesso sottovalutato: i dati dei clienti possono essere trattati da strumenti IA solo se conformi, sicuri e adeguatamente protetti. È vietato: caricare informazioni sensibili su piattaforme non trasparenti; utilizzare strumenti privi di termini chiari sul trattamento dei dati; esportare contenuti verso Paesi non garantiti; affidare a IA non controllate l’elaborazione di documenti fiscali o contabili.
La riservatezza è la linfa del rapporto fiduciario tra commercialista e assistito. L’IA non può violarla in nessun modo. Le sanzioni: da tre a sei mesi di sospensione.
Il CNDCEC ha introdotto un apparato sanzionatorio preciso. Il commercialista che viola le nuove regole rischia: da 3 a 6 mesi di sospensione; ulteriori provvedimenti disciplinari in caso di recidiva; responsabilità civili o penali se l’uso scorretto causa danni al cliente.
Non è un monito formale, ma un messaggio forte: la tecnologia può aiutare, ma non può mai sostituire l’integrità professionale. Questa decisione anticipa (e in parte supera) lo spirito dell’AI Act europeo, che chiede trasparenza, supervisione umana, tracciabilità dei processi decisionali. Il CNDCEC diventa una tra le prime Categorie intellettuali a definire confini chiari nell’uso dell’IA e non è difficile immaginare che questa scelta verrà seguita dagli altri professionisti economico-contabili e dai professionisti degli Ordini di avvocati; architetti; ingegneri; medici; altre categorie tecniche e intellettuali.
Entriamo nella stagione in cui la tecnologia non è più solo uno strumento, é un contesto. Un ambiente dentro cui il professionista deve muoversi con una nuova forma di competenza: non sapere tutto, ma sapere scegliere. La vera domanda che avremmo farci è: “Che ruolo le daremo?” I professionisti non sono diventati meno indispensabili con l’arrivo dell’IA, lo sono diventati di più perché, la capacità di interpretare, comprendere, assumere il peso di una decisione è, e dovrà sempre essere, un gesto umano. L’IA può generare dati, testi, analisi, simulazioni, ma non può comprenderne le conseguenze, percepire la complessità di una storia personale; non può firmare assumendo un rischio, non può reggere il peso morale di un parere. E’ pur sempre una “macchina”, ricordiamolo!
Concludendo, Direttore, possiamo affermare fortemente che la norma non vieta il progresso, cerca di accompagnarlo e renderlo più sicuro, più trasparente, più umano ricordandoci quello che avevamo smesso di vedere: la tecnologia potenzia il lavoro del professionista, non lo sostituisce, il resto lo farà la nostra capacità di rimanere presenti, lucidi, responsabili dentro un mondo che corre veloce, ma che ha ancora bisogno della nostra voce.
Grazie ad Antonio Sinibaldi.
Dir. Alessia Lupoi
Redazione redigo.info