Secondo l’OECD Digital Education Outlook 2026, nel 2024 il 37% degli insegnanti di scuola secondaria inferiore dichiarava di usare l’intelligenza artificiale nel proprio lavoro. La maggior parte lo fa senza una valutazione formale da parte dell’istituzione scolastica. Con l’avvicinarsi dell’applicazione generale di gran parte dell’AI Act il 2 agosto 2026 — fermo restando che alcune disposizioni, come l’Art. 4 sull’AI literacy, si applicano già dal 2 febbraio 2025 — ogni scuola che utilizza strumenti AI deve porsi una domanda concreta: quali di questi strumenti ricadono nella classificazione ad alto rischio, e cosa devo fare?
Questa guida offre una risposta operativa. Abbiamo analizzato dieci strumenti AI tra i più diffusi nel contesto scolastico europeo e li abbiamo classificati applicando i criteri dell’Allegato III, punto 3, del Regolamento (UE) 2024/1689.
Come leggere la matrice
La classificazione dipende dalla finalità prevista (intended purpose) dichiarata dal provider e dall’uso effettivo della scuola. Lo stesso strumento può essere ad alto rischio o meno a seconda di come viene impiegato. L’eccezione dell’Art. 6(3) può applicarsi se il sistema svolge solo compiti procedurali limitati e non effettua profilazione. Per l’analisi completa dei ruoli soggettivi nell’AI Act, si rinvia al nostro paper “Subject Roles in the EU AI Act”.
La matrice
* L'uso di LLM generici per la sola preparazione dei materiali didattici non rientra nelle categorie dell'Allegato III. Tuttavia, se il docente utilizza l'output dell'LLM per produrre valutazioni che incidono sulla carriera scolastica dello studente, si entra nel perimetro del punto 3(b) e può porsi la questione del riallineamento del ruolo soggettivo ai sensi dell'Art. 25.
Tre scenari critici da comprendere
Scenario 1: lo stesso strumento, rischi diversi
Il punto fondamentale che emerge dalla matrice è che lo stesso strumento AI può essere ad alto rischio o meno a seconda dell’uso che se ne fa. Un LLM generico usato dal docente per preparare una lezione non rientra nell’Allegato III. Lo stesso LLM usato per correggere e valutare gli elaborati degli studenti potenzialmente sì.
Come abbiamo analizzato nel nostro paper “Subject Roles in the EU AI Act”, l’Art. 25 del Regolamento prevede che il deployer che modifica la finalità prevista di un sistema AI assuma gli obblighi del provider. Un uso di un LLM generico per finalità di valutazione può porre seri problemi di riallineamento del ruolo soggettivo e, in casi specifici, aprire la questione dell’Art. 25 — con la conseguenza che l’istituto scolastico potrebbe trovarsi a dover sostenere responsabilità normalmente riservate al provider.
Scenario 2: la profilazione e l’eccezione dell’Art. 6(3)
L’Art. 6, paragrafo 3, prevede eccezioni alla classificazione ad alto rischio. Ma l’ultimo capoverso dello stesso articolo stabilisce che un sistema AI dell’Allegato III è sempre ad alto rischio quando effettua profilazione di persone fisiche.
Molte piattaforme di adaptive learning costruiscono profili dettagliati dello studente: livello di competenza per area, velocità di apprendimento, pattern di errore, tempi di risposta. Nella mia lettura, questo costituisce con elevata probabilità profilazione ai sensi dell’Art. 3, punto 4, del GDPR. Se ricorre profilazione, è esclusa l’applicazione dell’eccezione dell’Art. 6(3) dell’AI Act, e il sistema resta classificato come ad alto rischio con tutti gli obblighi che ne derivano.
È importante distinguere tre piani: la profilazione in senso GDPR (Art. 4, punto 4, GDPR), la classificazione ad alto rischio ai sensi dell’AI Act, e gli obblighi aggiuntivi che sorgono quando il trattamento riguarda dati di minori o è effettuato da soggetti pubblici. I tre piani si intersecano ma non coincidono, e la valutazione va condotta separatamente per ciascuno.
Scenario 3: il proctoring è il caso più chiaro
I sistemi di proctoring AI rientrano esplicitamente nella lettera (d) dell’Allegato III, punto 3: sistemi destinati al monitoraggio e alla rilevazione di comportamenti vietati degli studenti durante le prove. Non c’è ambiguità interpretativa. Qualsiasi istituzione che adotta sistemi di proctoring AI sta impiegando un sistema ad alto rischio ai sensi dell’AI Act, con tutti gli obblighi che ne derivano per il deployer.
Cosa fare lunedì mattina: 5 azioni immediate
Mappare gli strumenti AI in uso. Chiedere a ogni dipartimento e a ogni docente quali strumenti AI utilizza, anche informalmente. La matrice sopra serve come punto di partenza.
Verificare la classificazione. Per ogni strumento identificato, applicare il percorso di classificazione: rientra nelle categorie dell’Allegato III? Se sì, si applica l’eccezione dell’Art. 6(3)? Effettua profilazione?
Identificare il deployer. Per ogni sistema, chiarire chi esercita l’autorità sull’uso. Se l’adozione è informale (il docente usa lo strumento di propria iniziativa), l’istituto deve decidere se formalizzarla — assumendo il ruolo di deployer — o vietarla.
Avviare la DPIA per i sistemi che trattano dati di minori. Indipendentemente dalla classificazione AI Act, il GDPR richiede una valutazione d’impatto per i trattamenti che comportano un rischio elevato per i diritti e le libertà delle persone, in particolare quando si trattano dati di minori su larga scala o quando si effettua profilazione.
Pianificare la FRIA per i sistemi ad alto rischio. Per le istituzioni che erogano un servizio pubblico (la gran parte delle scuole), l’Art. 27 dell’AI Act impone la valutazione d’impatto sui diritti fondamentali prima del primo utilizzo di un sistema AI ad alto rischio.
Scarica la matrice
Versione PDF per DPO, dirigenti scolastici e uffici compliance — formato stampabile per la distribuzione all’interno dell’istituto.
Questo articolo è parte della serie “AI & Education Law”. Per l’analisi giuridica approfondita della figura del deployer scolastico e dell’Allegato III, si veda l’Episodio 1: IA a scuola — chi è il deployer e quali sistemi sono ad alto rischio.
Per la mappatura completa dei ruoli soggettivi nell’AI Act, si rinvia al nostro paper “Subject Roles in the EU AI Act: Mapping and Regulatory Implications”.
