Secondo l’OECD Digital Education Outlook 2026, nel 2024 il 37% degli insegnanti di scuola secondaria inferiore dichiarava di usare l’intelligenza artificiale nel proprio lavoro. La maggior parte lo fa senza una valutazione formale da parte dell’istituzione scolastica. Con l’avvicinarsi dell’applicazione generale di gran parte dell’AI Act il 2 agosto 2026 — fermo restando che alcune disposizioni, come l’Art. 4 sull’AI literacy, si applicano già dal 2 febbraio 2025 — ogni scuola che utilizza strumenti AI deve porsi una domanda concreta: quali di questi strumenti ricadono nella classificazione ad alto rischio, e cosa devo fare?

Questa guida offre una risposta operativa. Abbiamo analizzato dieci strumenti AI tra i più diffusi nel contesto scolastico europeo e li abbiamo classificati applicando i criteri dell’Allegato III, punto 3, del Regolamento (UE) 2024/1689.

Come leggere la matrice

La classificazione dipende dalla finalità prevista (intended purpose) dichiarata dal provider e dall’uso effettivo della scuola. Lo stesso strumento può essere ad alto rischio o meno a seconda di come viene impiegato. L’eccezione dell’Art. 6(3) può applicarsi se il sistema svolge solo compiti procedurali limitati e non effettua profilazione. Per l’analisi completa dei ruoli soggettivi nell’AI Act, si rinvia al nostro paper “Subject Roles in the EU AI Act”.

Alto rischio Probabile / Dipende dall'uso Non ad alto rischio

La matrice

LLM generici (chatbot, assistenti AI) No*
Funzione: Preparazione materiali didattici, assistenza alla scrittura, ricerca
Allegato III: Nessuna categoria, se usato come assistente generico dal docente
Deployer: Docente (uso individuale) o istituto (se adozione formale)
Obblighi: Art. 4 — AI literacy (già applicabile dal 2 febbraio 2025)
LLM utilizzati per valutazione studenti Sì — Alto rischio
Funzione: Correzione automatizzata di elaborati, assegnazione voti
Allegato III: Punto 3(b) — valutazione risultati di apprendimento
Deployer: Istituto scolastico. Un uso di un LLM generico per finalità di valutazione può porre seri problemi di riallineamento del ruolo soggettivo e, in casi specifici, aprire la questione dell'Art. 25
Obblighi: Art. 26 — uso conforme, sorveglianza umana; Art. 27 — FRIA per enti pubblici; Art. 35 GDPR — DPIA
Piattaforme di tutoring adattivo Probabile
Funzione: Tutoring adattivo personalizzato, guida allo studio
Allegato III: Punto 3(b) — se i risultati delle interazioni orientano il percorso di apprendimento
Deployer: Istituto scolastico (se adozione istituzionale); docente (se uso autonomo)
Obblighi: Art. 26 — sorveglianza umana, monitoraggio; DPIA se trattamento comporta profilazione di minori
App di apprendimento linguistico con AI Dipende dall'uso
Funzione: Apprendimento linguistico adattivo con percorsi personalizzati
Allegato III: Punto 3(b) — se usato come strumento istituzionale di valutazione delle competenze linguistiche
Deployer: Istituto scolastico (se adozione istituzionale); nessuno se uso personale dello studente
Obblighi: Se alto rischio: Art. 26, DPIA. Se solo supporto senza valutazione: Art. 4 (AI literacy)
Correttori grammaticali AI No
Funzione: Correzione grammaticale, suggerimenti di scrittura
Allegato III: Nessuna categoria — funzione di assistenza alla scrittura
Deployer: Docente o studente (uso individuale)
Obblighi: Art. 4 — AI literacy
Sistemi di proctoring AI Sì — Alto rischio
Funzione: Monitoraggio e rilevazione comportamenti durante esami online
Allegato III: Punto 3(d) — monitoraggio e rilevazione comportamenti vietati durante le prove
Deployer: Istituto scolastico / Università
Obblighi: Art. 26 — sorveglianza umana effettiva; Art. 27 — FRIA; Art. 35 GDPR — DPIA; informativa agli studenti
Piattaforme di orientamento AI Sì — Alto rischio
Funzione: Raccomandazioni su percorsi scolastici o professionali basate su profilo studente
Allegato III: Punto 3(c) — valutazione del livello di istruzione appropriato
Deployer: Istituto scolastico o Ministero (se sistema nazionale)
Obblighi: Art. 26; Art. 27 — FRIA; DPIA; garanzie Art. 22 GDPR (decisioni automatizzate)
Sistemi di ammissione AI-assisted Sì — Alto rischio
Funzione: Selezione, ranking o pre-screening candidati per ammissione a scuole/università
Allegato III: Punto 3(a) — determinazione accesso o ammissione
Deployer: Istituto scolastico / Università
Obblighi: Art. 26; Art. 27 — FRIA; DPIA; conformity assessment del provider (Art. 43)
Sistemi di rilevamento plagio AI Probabile
Funzione: Identificazione di testi generati da AI negli elaborati degli studenti
Allegato III: Punto 3(b) — se il risultato influenza la valutazione dell'apprendimento; Punto 3(d) — se usato per rilevare "comportamento vietato"
Deployer: Istituto scolastico / Università
Obblighi: Art. 26; DPIA se profila gli studenti; Art. 14 — sorveglianza umana (attenzione ai falsi positivi)
Piattaforme di apprendimento adattivo Sì — Alto rischio
Funzione: Percorsi di apprendimento completamente adattivi con valutazione integrata
Allegato III: Punto 3(b) — valutazione risultati di apprendimento e orientamento del percorso. In molti casi, queste piattaforme effettuano con elevata probabilità una forma di profilazione ai sensi del GDPR
Deployer: Istituto scolastico
Obblighi: Art. 26; Art. 27 — FRIA; DPIA. Se ricorre profilazione, l'eccezione dell'Art. 6(3) AI Act non è applicabile (Art. 6(3), ultimo cpv.)

* L'uso di LLM generici per la sola preparazione dei materiali didattici non rientra nelle categorie dell'Allegato III. Tuttavia, se il docente utilizza l'output dell'LLM per produrre valutazioni che incidono sulla carriera scolastica dello studente, si entra nel perimetro del punto 3(b) e può porsi la questione del riallineamento del ruolo soggettivo ai sensi dell'Art. 25.

Tre scenari critici da comprendere

Scenario 1: lo stesso strumento, rischi diversi

Il punto fondamentale che emerge dalla matrice è che lo stesso strumento AI può essere ad alto rischio o meno a seconda dell’uso che se ne fa. Un LLM generico usato dal docente per preparare una lezione non rientra nell’Allegato III. Lo stesso LLM usato per correggere e valutare gli elaborati degli studenti potenzialmente sì.

Come abbiamo analizzato nel nostro paper “Subject Roles in the EU AI Act”, l’Art. 25 del Regolamento prevede che il deployer che modifica la finalità prevista di un sistema AI assuma gli obblighi del provider. Un uso di un LLM generico per finalità di valutazione può porre seri problemi di riallineamento del ruolo soggettivo e, in casi specifici, aprire la questione dell’Art. 25 — con la conseguenza che l’istituto scolastico potrebbe trovarsi a dover sostenere responsabilità normalmente riservate al provider.

Scenario 2: la profilazione e l’eccezione dell’Art. 6(3)

L’Art. 6, paragrafo 3, prevede eccezioni alla classificazione ad alto rischio. Ma l’ultimo capoverso dello stesso articolo stabilisce che un sistema AI dell’Allegato III è sempre ad alto rischio quando effettua profilazione di persone fisiche.

Molte piattaforme di adaptive learning costruiscono profili dettagliati dello studente: livello di competenza per area, velocità di apprendimento, pattern di errore, tempi di risposta. Nella mia lettura, questo costituisce con elevata probabilità profilazione ai sensi dell’Art. 3, punto 4, del GDPR. Se ricorre profilazione, è esclusa l’applicazione dell’eccezione dell’Art. 6(3) dell’AI Act, e il sistema resta classificato come ad alto rischio con tutti gli obblighi che ne derivano.

È importante distinguere tre piani: la profilazione in senso GDPR (Art. 4, punto 4, GDPR), la classificazione ad alto rischio ai sensi dell’AI Act, e gli obblighi aggiuntivi che sorgono quando il trattamento riguarda dati di minori o è effettuato da soggetti pubblici. I tre piani si intersecano ma non coincidono, e la valutazione va condotta separatamente per ciascuno.

Scenario 3: il proctoring è il caso più chiaro

I sistemi di proctoring AI rientrano esplicitamente nella lettera (d) dell’Allegato III, punto 3: sistemi destinati al monitoraggio e alla rilevazione di comportamenti vietati degli studenti durante le prove. Non c’è ambiguità interpretativa. Qualsiasi istituzione che adotta sistemi di proctoring AI sta impiegando un sistema ad alto rischio ai sensi dell’AI Act, con tutti gli obblighi che ne derivano per il deployer.

Cosa fare lunedì mattina: 5 azioni immediate

  1. Mappare gli strumenti AI in uso. Chiedere a ogni dipartimento e a ogni docente quali strumenti AI utilizza, anche informalmente. La matrice sopra serve come punto di partenza.

  2. Verificare la classificazione. Per ogni strumento identificato, applicare il percorso di classificazione: rientra nelle categorie dell’Allegato III? Se sì, si applica l’eccezione dell’Art. 6(3)? Effettua profilazione?

  3. Identificare il deployer. Per ogni sistema, chiarire chi esercita l’autorità sull’uso. Se l’adozione è informale (il docente usa lo strumento di propria iniziativa), l’istituto deve decidere se formalizzarla — assumendo il ruolo di deployer — o vietarla.

  4. Avviare la DPIA per i sistemi che trattano dati di minori. Indipendentemente dalla classificazione AI Act, il GDPR richiede una valutazione d’impatto per i trattamenti che comportano un rischio elevato per i diritti e le libertà delle persone, in particolare quando si trattano dati di minori su larga scala o quando si effettua profilazione.

  5. Pianificare la FRIA per i sistemi ad alto rischio. Per le istituzioni che erogano un servizio pubblico (la gran parte delle scuole), l’Art. 27 dell’AI Act impone la valutazione d’impatto sui diritti fondamentali prima del primo utilizzo di un sistema AI ad alto rischio.

Scarica la matrice

Versione PDF per DPO, dirigenti scolastici e uffici compliance — formato stampabile per la distribuzione all’interno dell’istituto.

Scarica la matrice in PDF


Questo articolo è parte della serie “AI & Education Law”. Per l’analisi giuridica approfondita della figura del deployer scolastico e dell’Allegato III, si veda l’Episodio 1: IA a scuola — chi è il deployer e quali sistemi sono ad alto rischio.

Per la mappatura completa dei ruoli soggettivi nell’AI Act, si rinvia al nostro paper “Subject Roles in the EU AI Act: Mapping and Regulatory Implications”.