Le nuova frontiere dell’AI: l’approccio RAG (Retrieval-augmented generation) | Rizzoli Education

Compatibilità
Salva(0)
Condividi

Negli ultimi anni, strumenti di intelligenza artificiale come ChatGPT, Gemini, Copilot e altri assistenti digitali sono entrati nella nostra vita in modo massiccio. Li utilizziamo per fare i compiti, riassumere testi, tradurre lingue, scrivere email, programmare, cercare idee creative o chiarire concetti complessi. Spesso sembrano sapere tutto. Eppure, a volte, hanno le allucinazioni. 

Gli LLM hanno bisogno di contesto

Un modello di linguaggio (LLM, Large Language Model)  non è un’enciclopedia in tempo reale. Viene addestrato su enormi quantità di dati: libri, siti web, articoli, codice, forum, post sui social. Questi costituiscono il training set, l’insieme di dati con cui i modelli sono addestrati. Durante questo addestramento imparano a riconoscere pattern, relazioni tra parole, strutture delle frasi e associazioni semantiche. 

Ipotizziamo di voler utilizzare un LLM nel contesto di un compito scolastico da svolgere a casa, come un elaborato sulla Rivoluzione Francese. Pensiamo di essere al sicuro: “sicuramente ChatGPT avrà al suo interno una quantità di informazioni infinita!”

Questa è però un’illusione: non conosce i tuoi appunti personali, non può accedere a materiali specifici consigliati dai tuoi insegnanti, non sa su quale aspetto specifico della Rivoluzione Francese è importante concentrarsi per fare un buon lavoro agli occhi dei tuoi professori e professoresse. 

Un LLM non può consultare i documenti di un’azienda, non ha memoria permanente delle conversazioni passate, non è aggiornato in tempo reale.

In altre parole: non conosce il tuo contesto.

È qui che nasce un problema importante: se chiediamo a un’AI qualcosa di molto specifico, rischia di rispondere in modo generico, impreciso o addirittura inventato. Questo fenomeno viene chiamato “allucinazione”: l’AI produce una risposta plausibile ma falsa.

Per superare questo limite, negli ultimi anni è nato un nuovo approccio: RAG. Questo acronimo sta per Retrieval-Augmented Generation, cioè generazione aumentata dal recupero di informazioni. Vediamo di che cosa si tratta. 

L’AI basata sul contesto

Il RAG funziona così: invece di chiedere all’AI di rispondere a un nostro prompt andando a pescare le informazioni dal suo vastissimo database di partenza, le forniamo prima le esatte informazioni con cui vogliamo che elabori la risposta. Interroghiamo sempre l’AI nello stesso modo, ma decidiamo noi su quali “libri” farlo “studiare” prima di rispondere.

Il processo avviene in tre fasi principali:

  • retrieval (recupero): l’utente fa una domanda (“prompt”). Il sistema cerca i documenti più pertinenti in un database “puntuale”, fornito proprio dall’utente stesso.
  • augmentation (aumento): il sistema prende la domanda dell’utente e ci “incolla” vicino i documenti trovati, creando un prompt molto più ricco.
  • generation (generazione): l’LLM legge domanda + documenti e genera la risposta.

È la differenza tra chiedere: “Scrivimi un riassunto del Capitolo 5” (che l’AI non conosce) e Leggi questo testo che ti fornisco [testo del capitolo 5 – Rivoluzione Francese] e scrivimi un riassunto“.

I vantaggi: meglio con o senza RAG?

I modelli “impreziositi” dalla tecnica RAG danno risposte più puntuali e specifiche. Per esempio, molti chatbot di assistenza clienti su e-commerce si servono proprio di documenti sui prodotti venduti, come schede prodotto e manuali di garanzia, per poter dare risposte precise. 

La scelta di integrare o meno un’architettura RAG non è obbligatoria per “far funzionare meglio” l’AI generativa. 

Se l’obiettivo è ottenere output creativi (brainstorming, stesura di bozze narrative), un LLM standard funziona perfettamente. Tuttavia, quando l’obiettivo delle ricerche è l’accuratezza e il contesto è molto specifico, il RAG diventa imprescindibile.

  • Basta allucinazioni

L’architettura RAG permette una mitigazione delle allucinazioni, uno dei limiti degli LLM più comuni. Il problema principale degli LLM è infatti la loro tendenza a generare informazioni plausibili ma false per colmare le loro lacune.

Il RAG vincola l’AI ai dati forniti: se l’informazione non è presente nel contesto recuperato, il sistema è programmato per ammettere la mancanza di dati piuttosto che inventare. L’AI risponderà semplicemente “non conosco la risposta in base ai dati che mi hai fornito” e ciò garantisce non poca affidabilità.

  • Dati sempre aggiornati

I modelli standard possiedono una conoscenza statica, ferma alla data del loro ultimo addestramento. Un sistema RAG, invece, attinge a dati esterni in tempo reale. Non è necessario riaddestrare l’AI (processo costoso e lento) per insegnarle le notizie di oggi,  basta aggiungere il documento aggiornato nel database di riferimento.

  • Fact – checking

A scuola lo sentite ripetere fin dalle medie: “Cita sempre le tue fonti“. Un’informazione, per quanto interessante, non ha alcun valore accademico o professionale se non possiamo dimostrare da dove arriva. Il problema dei chatbot classici è proprio questo: ci forniscono risposte di cui possiamo solo fidarci “a scatola chiusa”. Magari il concetto è giusto, ma non sappiamo se l’AI l’abbia letto su un’enciclopedia affidabile o su un forum di dubbia qualità. Dobbiamo fidarci sulla parola, e questo in una tesina o in un report aziendale non è accettabile.

Il sistema RAG risolve questo problema introducendo la trasparenza. Quando un’AI potenziata dal RAG vi risponde, non si limita a scrivere il testo. Vi mostra le “prove“. Accanto a ogni affermazione, il sistema è in grado di inserire una nota che rimanda al documento originale, dicendo esattamente: “Ho preso questa informazione dal documento X, a pagina 12“.

  • Privacy e riservatezza

C’è poi un aspetto fondamentale che spesso viene sottovalutato, la riservatezza dei dati. Quando usate un’AI pubblica e gratuita, c’è sempre un rischio implicito: tutto ciò che scrivete nella chat potrebbe essere usato per addestrare le future versioni del modello. Immaginate di caricare il vostro diario segreto o una ricerca medica personale: tecnicamente, quelle informazioni entrano a far parte della conoscenza globale dell’AI.

Invece, con il RAG, i dati “sensibili” (documenti privati, database scolastici, progetti aziendali) non vengono mai spediti sui server pubblici di chi ha creato l’AI. Rimangono nei vostri server, o addirittura sul vostro computer locale. L’AI viene usata solo come un “processore”: consulta i dati al momento della domanda per formulare la risposta e, una volta finito, non ne conserva memoria. 

Facciamo un esempio concreto, partiamo dalla scuola: pensate ai registri elettronici con i voti, le note disciplinari o i documenti sui bisogni educativi speciali. Nessuna scuola vorrebbe mai che questi dati finissero nel “cervello” pubblico di ChatGPT. Con un sistema RAG locale, la scuola può usare l’intelligenza artificiale per analizzare l’andamento della classe o creare report, ma i dati degli studenti non escono mai dalla rete sicura dell’istituto.

Un esempio di RAG gratuita: NotebookLM

Forse state pensando che per usare il RAG servono competenze da programmatori o software costosi. In realtà, una tecnologia simile, e molto semplice, è già nelle nostre mani. Un esempio perfetto per la scuola è NotebookLM. Immaginatelo come un “quaderno aumentato”. Invece di chattare con una AI generica che pesca informazioni chissà dove, NotebookLM vi chiede di caricare le vostre fonti: i PDF dei libri di testo, le slide dei professori, i vostri appunti. Una volta caricati i materiali, l’AI si “chiude” dentro quel perimetro e risponde solo basandosi su ciò che avete inserito.

È qui che si gioca la partita tra usare l’AI per “copiare” e usarla per “imparare”. Usare ChatGPT per farsi scrivere un tema da zero è un uso passivo (e rischioso). Usare uno strumento RAG come NotebookLM, invece, vi spinge a uno studio attivo e intelligente. Potete chiedergli: “Non ho capito il terzo paragrafo di queste dispense di Fisica, spiegamelo con un esempio semplice“. In questo scenario, l’AI non vi sostituisce, ma diventa un compagno di studi instancabile che vi aiuta a metabolizzare i vostri materiali. 

In informatica vale una regola d’oro: “Garbage In, Garbage Out” (se metti dentro spazzatura, esce spazzatura).

 Con il RAG, questa regola diventa legge: l’Intelligenza Artificiale è intelligente tanto quanto la qualità delle fonti che le fornite e l’approccio dell’utente che la utilizza. Se alimentate il sistema con appunti disordinati o fake news scaricate dal web, nemmeno il modello più avanzato potrà salvarvi: vi restituirà un lavoro mediocre. Se invece imparate a selezionare fonti autorevoli, l’AI diventerà un amplificatore incredibile delle vostre capacità.

La sfida per il nostro futuro sarà non solo saper fare la domanda giusta (prompt engineering), ma anche saper scegliere la conoscenza giusta da dare in pasto alla macchina. E ancora, quanto e come fidarci delle risposte “facili” e “pronte” che ci fornisce l’AI. Non accontentatevi della “magia” del chatbot: siate voi gli architetti delle informazioni.

Rubrica a cura di Generazione Stem.

Biografia Autrice

Serena Aprano è una studentessa magistrale di Ingegneria Informatica, al Politecnico di Torino. Parallelamente lavora con i media digitali: dopo essere stata speaker e autrice radiofonica per diversi anni, oggi realizza video di divulgazione scientifica sui social (@serseebo su Instagram) e per Generazione STEM. Raccontare la tecnologia ai ragazzi è la cosa che la appassiona di più e un progetto nei media tradizionali come tv, libri e radio è il suo sogno. 

Recapiti
Andrea Padovan