L’IA entra in classe: le linee guida e le nuove sfide per la scuola italiana | Rizzoli Education

Compatibilità
Salva(0)
Condividi

L’intelligenza artificiale è entrata ufficialmente nella scuola italiana. Con il Decreto Ministeriale n. 166 del 9 agosto 2025 e le nuove Linee guida per l’introduzione dell’IA nelle istituzioni scolastiche, il Ministero dell’Istruzione e del Merito ha tracciato una rotta precisa: l’IA non è più soltanto un tema di attualità o di curiosità tecnologica, ma un ambito di governance educativa che riguarda la quotidianità delle scuole.

Da alcune settimane è attiva la sezione dedicata sulla piattaforma Unica, che potrà essere utilizzata da dirigenti e docenti. La piattaforma si propone come punto di riferimento per reperire strumenti, modelli e materiali che permettano di usare l’intelligenza artificiale in modo consapevole e conforme alle norme europee.

Inoltre, dal 10 ottobre 2025 è entrata in vigore la nuova normativa in materia di intelligenza artificiale, la legge 132/2025.

È l’inizio di una fase nuova: non più se usare l’IA, ma come farlo nel rispetto dei valori educativi, della privacy e della centralità della persona.

L’istituto scolastico come deployer

Questo passaggio viene reso ancora più significativo per il ruolo che viene attribuito agli istituti scolastici, che nelle linee guida vengono identificati come deployer.  Nel linguaggio dell’AI Act europeo, il deployer è l’ente che utilizza un sistema di IA “sotto la propria autorità” e ne assume la responsabilità giuridica, tecnica e organizzativa.

Ciò significa che ogni istituto scolastico che adotta strumenti basati su intelligenza artificiale non è un semplice utente, ma diventa responsabile del loro impiego, della loro conformità normativa e del rispetto dei diritti di studenti, docenti e famiglie.

In questo senso, le scuole entrano in una dimensione nuova: devono dotarsi di competenze tecniche e procedurali tipiche di un ente pubblico che gestisce tecnologie complesse, dal monitoraggio dei fornitori alla valutazione d’impatto sui diritti fondamentali (la cosiddetta FRIA, prevista dagli artt. 26-27 dell’AI Act).

I quattro pilastri del modello per l’introduzione dell’IA nella scuola

Per accompagnare le scuole in questa importante fase di transizione digitale, il Ministero dell’Istruzione e del Merito ha definito un modello di introduzione dell’intelligenza artificiale basato su quattro pilastri fondamentali.

  1. Principi di riferimento: centralità della persona, equità, inclusione, responsabilità e tutela dei diritti. 
  2. Requisiti di base: le condizioni minime – etiche, tecniche e normative – che ogni sistema di IA deve rispettare per poter essere adottato.
  3. Framework di implementazione: il percorso che ogni scuola deve seguire per introdurre l’IA in modo strutturato.
  4. Comunicazione e governance: l’introduzione della piattaforma Unica per supportare il coinvolgimento e la sensibilizzazione dei diversi stakeholder e per un dialogo costante tra il Ministero e le istituzioni scolastiche, per garantire coerenza tra le direttive nazionali e le iniziative locali.

La scelta della scuola dovrà ricadere su sistemi certificati

Fra i requisiti di base del secondo pilastro c’è la verifica della robustezza tecnologica degli strumenti scelti e l’adozione di sistemi conformi alle leggi sulla protezione dei dati personali (come il GDPR e l’AI Act europeo). Nel testo si legge “La selezione del fornitore di sistemi IA deve basarsi su standard di sicurezza internazionali, come le certificazioni ISO/IEC 27001, e le qualificazioni particolarmente rilevanti nel contesto italiano, quali ad esempio la certificazione AgID per i servizi SaaS.” 

Attualmente sono poche le realtà che rispettano questi standard ma è possibile che nei prossimi mesi le aziende più grandi si adatteranno ai requisiti per poter stringere accordi con gli istituti scolastici. 

Una zona grigia: l’utilizzo di sistemi IA di cui la scuola non è deployer da parte dei docenti 

Le linee guida si concentrano sul livello istituzionale (scuola come ente pubblico, governance ministeriale, piattaforma Unica), ma non definiscono alcuna policy d’uso personale, specialmente per quello che riguarda l’eventuale utilizzo di sistemi esterni a quello che potrebbe essere attivato dall’istituto scolastico di appartenenza. 

Se le linee guida definiscono con chiarezza la scuola come “deployer” dei sistemi di intelligenza artificiale, non dedicano però alcun passaggio specifico a un fenomeno che nel frattempo si è già diffuso: l’uso di piattaforme e sistemi di IA da parte di docenti e/o studenti attraverso account personali.

Nelle linee guida, infatti, non si parla dell’utilizzo di sistemi IA di cui l’istituto non è deployer, mentre nella pratica professionale di docente questo potrebbe capitare, specialmente in questa fase di passaggio in cui alcuni potrebbero già essere abituati a utilizzare sistemi che al momento non hanno tutte le certificazioni necessarie per un’adozione a livello di istituto. Altro caso che potrebbe presentarsi è la necessità di svolgere attività puntuali e specifiche, utili alla comprensione del funzionamento dei modelli di IA da parte degli studenti. Ad esempio, non ci sono indicazioni nel caso in cui un docente voglia usare sistemi di IA per attività di robotica o per mostrare i meccanismi di funzionamento del machine learning. 

Un approccio basato sulla valutazione del rischio

Le linee guida non contengono un elenco di applicazioni IA permesse e/o vietate, ma definiscono dei criteri generali, stabilendo che spetta al Dirigente Scolastico la verifica dei possibili sistemi di IA da adottare nella scuola. Questo approccio ricalca quello usato anche nell’AI Act per normare lo sviluppo delle tecnologie legate all’intelligenza artificiale, che presenta molte difficoltà nella regolamentazione dovute alla velocità di evoluzione e diffusione delle stesse.

Per valutare il rischio bisogna aver ben presente la tecnologia e il suo funzionamento. Se l’AI Act è pensato per normare la creazione di sistemi di IA e si rivolge direttamente a chi queste tecnologie le sviluppa, le linee guida con questo approccio richiedono sia ai dirigenti che ai docenti di formarsi sul tema.

Per i docenti in particolar modo, la valutazione del rischio dovrà legarsi alle attività da svolgere con i sistemi di IA. Immaginiamo che la scuola in qualità di deployer abbia attivato degli account per poter utilizzare dei generatori di testo (basati su LLM, ovvero Large Language Model). Di per sé un generatore di testo (come Gemini, Copilot, ChatGPT, Claude…) non è un sistema ad alto rischio: se lo usiamo, ad esempio, per un’attività di prompting creativo, in cui chiediamo al sistema di generare storie fantastiche, stiamo conducendo un’attività a basso rischio. Se invece proponiamo agli studenti di usarlo per effettuare una ricerca, stiamo proponendo un’attività con un livello di rischio maggiore perché i LLM sono soggetti ad allucinazioni e bias. E ancora, pensare di usare un LLM per la valutazione formativa o la correzione dei compiti degli studenti, significa pensare di impiegarlo per un’attività ad alto rischio, che richiede revisione e un monitoraggio attento da parte del docente. 

Le linee guida disegnano uno scenario in cui per la scuola la sfida non sarà solo quella di scegliere quali strumenti IA introdurre, ma anche di riconoscerne i limiti, trovare le giuste applicazione e valutare gli effetti.

Le prossime live

Rizzoli Education nei prossimi giorni ha un calendario ricco di incontri per fornire strumenti utili sul tema:

Giovedì 30 Ottobre 2025 ore 16:30

Intelligenza artificiale a scuola: un’analisi delle nuove Linee guida

con Irene Fabbri

Venerdì 7 Novembre 2025 ore 17:30

NotebookLM come strumento per supportare nell’insegnamento delle lingue

con Alessandro Bencivenni

Venerdì 14 Novembre 2025 ore 17:30

Le intelligenze artificiali per realizzare mappe e infografiche nello studio della Storia dell’arte

con Adele Leccia

Giovedì 20 Novembre 2025 ore 17:00

Geo-tutor AI per esplorare il pianeta Terra

con Luca Montanari

Venerdì 21 Novembre 2025 ore 17:30

Intelligenza artificiale per ampliare e potenziare le attività di valutazione

con Roberto Castaldo

Martedì 25 Novembre 2025 ore 16:00

AI in classe: quello che ancora non stai usando

con Cristina Prandi

Recapiti
Andrea Padovan