20/08/2025
Beniamino Buonocore
Magari riscoprendo l’idea di Latenza del pensiero che ci permette di essere noi a usare le AI e non il contrario, ma di questo tema ne parliamo tra un po’.
Una riflessione, che spero utile, a partire da un articolo apparso su Wired.
È sicuramente interessante leggerlo, ma la sostanza è che Wired scopre l’acqua calda, ovvero che i sistemi di intelligenza artificiale, in particolare i modelli linguistici di grandi dimensioni (LLM) e i sistemi di generazione aumentata di recupero (RAG), possano produrre informazioni false ma plausibili, un fenomeno noto come "allucinazioni documentate" o "confabulazione".
Una scoperta che Wired fa grazie a due casi: un'antica epigrafe greca e una stele non identificata, con cui gli autori argomentano che l'AI possa inventare testi coerenti e dettagli storici, citando persino fonti inesistenti o irrilevanti. Queste verità generate dalle intelligenze artificiali sono difficili da distinguere da quelle autentiche, specialmente per i non specialisti, portando a un'era che viene definita di post-verità digitale.
La tesi è dunque che abbiamo la necessità di competenze critiche e che è importante una verifica sistematica avendo consapevolezza dei limiti tecnologici dell’AI. Evviva, grazie; soprattutto per la quantità di pubblicità che rende la lettura dell’articolo complessa per chi ha una memoria a breve termine con una capacità normale di immagazzinare informazioni.
Da qui alcune riflessioni vanno fatte.
Come ho avuto modo di dire, l’articolo è intrigante, ma incompleto; la questione delle AI è più ampia: lo stesso esperimento fatto senza le limitazioni di token in input e output tipiche di questi sistemi, anche a pagamento (peggiorativi con uso di AI gratuite), oppure utilizzando AI addestrate in maniera specifica (dall’intelletto umano, per essere chiari), oppure con l'aggiunta a supporto di memorie integrative che sostengono le analisi complesse, mi sento di dire che darebbe risultati diversi.
Questo è un primo punto. Se vogliamo giocare (passatemi il termine, poco diplomatico, ma reale) a scovare le debolezze delle AI, facciamolo però declinandolo come hobby capace di creare un contenuto per riempire le pagine del web (social compresi, tutti bravi a dire quanto è cattivo il lupo).
Questa cosa dei Token che ho nominato è, da una parte tecnica, ma non troppo, dall’altra di comprensione di come funzionano questi sistemi.
Quello che qui è utile sapere è che il numero dei Token influenza le informazioni che possiamo dare e le risposte che possiamo ricevere, ovvero il contesto che un’AI è in grado di elaborare.
C’è poi un altro aspetto rilevante. Le intelligenze artificiali, intelligenti non sono: esse creano un linguaggio statisticamente valido a partire dal contesto. Ovvero: più preciso è il contesto, più la risposta che otteniamo è statisticamente verosimile e tendente al vero.
Le AI non sono archivi di nozioni che possono essere richiamate ed elaborate. Le AI creano linguaggio (risposte) statisticamente, ovvero devono partire da una base rilevante di possibili aggregazioni di token.
Nel caso proposto da Wired, l’elemento statistico è bassissimo; quanti dati pensate possa avere un’AI sull’argomento: “antica epigrafe greca” o, peggio, “una stele non identificata”? Ecco, questo è esattamente il punto.
Le AI imparano dai contesti rilevanti numericamente, e questo è un bene o un male a seconda di come applichiamo il concetto. Ma è la realtà.
Quello che in molti ancora non hanno fatto propria è l'idea che se pretendi dalle AI una risposta a partire da quello che sono: prodotti consumer, allora potremmo riempire pagine e pagine di articoli, con buona pace della frammentazione delle informazioni prive contesto. Se impegniamo il tempo per cercare di dimostrare che le Intelligenze Artificiali non funzionano, perdiamo quello stesso tempo per capire come dobbiamo usarle e quali vantaggi (pochi o molti che siano) possiamo ottenere.
Le AI sono un motore che per funzionare efficacemente (per qualità e non per velocità) richiedono investimento di strutture, tempo mentale, "creatività competente" come mi piace chiamarla. La realtà è che l’uso intelligente di questi sistemi è un costo/investimento (come preferite chiamarlo) che va affrontato con tanto, ma tanto impegno.
E chiariamo un punto: qui siamo nella situazione tipica che abbiamo già visto con i Social, ovvero considerarli la soluzione per tutte quelle realtà che NON avevano budget da investire in comunicazione. I Social sono gratis, la comunicazione è gratis. Benvenuti nel mondo dei sogni. Con le AI è la stessa cosa: l'efficacia non è nei prodotti consumer che vediamo ogni giorno, o che pensiamo di usare gratis perché siamo furbi (furbetti).
Le AI sono un mondo complesso, e come riporta Don Andrea Ciucci nel libro: “Scusi perché lei è qui”, le AI non hanno il libretto delle istruzioni; in sostanza per comprendere le AI abbiamo bisogno di applicare un modello Intuitivo di apprendimento, anche se, va detto, un po’ di studio deduttivo aiuta la comprensione, quanto meno fornisce delle strade di approfondimento e pratica.
Permettetemi un racconto personale
Anche io mi diverto a fare "giochetti" che poi condivido, ma ci ho realizzato anche cose molto impegnative e i cui risultati, posso assicurare, sono stati molto utili e interessanti. Man mano che sperimentavo ho cominciato a capire, ad esempio, che le AI possono essere guidate nelle risposte (soluzioni RAG - trovate su Google la definizione, oppure chiedete a un'AI di spiegarvi cosa significa); ho scoperto che per avere meno bias è utile imparare a usare i prompt in formato JSON (sul tema Claude.ai è utilissimo, praticamente ve li scrive, e poi si personalizzano a piacere); e ho scoperto, da poco, che i sistemi multi agente permettono anche di realizzare attività complesse e approfondite con risultati che portano vicinissimo a risultato che ci serve.
Un esempio concreto
Circa 10 mesi fa ho dovuto fare un approfondimento per una strategia di comunicazione sul tema: obesità. Dati ce ne sono tantissimi: li cerchi, li analizzi, li ordini secondo quello che ti serve, li scomponi e ricomponi; insomma qui niente di nuovo. Tempo di realizzazione: due settimane dedicate solo a questa attività.
Poi, circa un mese fa, altri due studi altrettanto impegnativi: uno sul tema dell’ipoacusia (perdita dell’udito) e uno sul mondo del lavoro. Questa volta con l’aiuto delle AI. Stesso risultato in una settimana di lavoro, per tutte e due gli approfondimenti.
Ora, intendiamoci: il merito non è delle AI. Non sono state le AI a svolgere i due approfondimenti, hanno però dato un forte contributo a un processo di ricerca e sviluppo di idee che io ho governato.
Non mi dilungo a spiegare il processo che ho applicato, non per chissà quale segreto da mantenere, ma solo per motivi di spazio e di focus. Segnalo solo il fatto che mi sono riferito alle AI al plurale.
Per questo, l’invito che faccio è considerare che le AI non sono una realtà con cui si può improvvisare, ma che richiedono un contributo importante da parte dell'intelletto umano.
Ai miei corsi, la prima slide dice: "Il contributo dell'uomo alle Intelligenze Artificiali è l'intelligenza." È un pensiero ragionato, perché dal mio punto di vista una qualsiasi AI è un amplificatore dell’intelletto umano. E se non la usiamo in questo modo perdiamo solo tempo e sprechiamo bit di memoria che potrebbero essere dedicati ad altro.
Le AI sono un’opportunità (tanto per usare un linguaggio simil-guru), ma tanto più ti danno, tanto più pretendono. Non saranno mai come il pensiero umano, questo va sempre ricordato, e non lo saranno perché non hanno la capacità di latenza delle informazioni. Quelle di cui vi ho parlato all’inizio.
La latenza del pensiero è quel tempo che passa dal momento in cui ci serve un’informazione, che sommati tempo necessario per reperire i dati che la completano, al momento in cui possiamo utilizzare l’informazione. Un processo che possiamo applicare allo studio, ai processi creativi, al lavoro.
In questo periodo di latenza, la nostra mente crea associazioni, confronta ciò che sta imparando con esperienze passate, o con riflessioni fatte in altri contesti. In sostanza, crea schemi che poi può replicare in altri contesti. La latenza è il motore della creatività umana, è ciò che spesso chiamiamo intuito. Questa capacità di creare schemi, questa capacità di essere creativi è l’elemento che ci differenzia dalle AI ed è la vera opportunità che ci viene fornita dalle AI: tempo per pensare, tempo per dare nuove forme ai pensieri. E non mi pare cosa da poco.
Così vi lascio con una domanda. Conviene usare il tempo a scoprire quanto le AI possono generare errori, o approfittare e riprenderci un po’ di tempo da dedicare ai pensieri latenti?