Questo articolo è il sesto della serie dedicata al Digital Omnibus Package e all’attuazione del Regolamento (UE) 2024/1689 (AI Act). Nel contributo precedente, AI Act: il modello di enforcement ibrido tra norme e realtà, abbiamo mostrato come il dato degli 8/27 sui single points of contact designati ai sensi dell’articolo 70 costituisca un indicatore diretto del deficit strutturale del livello decentralizzato del modello ibrido. Il documento EPRS PE 785.673, pubblicato nel marzo 2026, offre un secondo indicatore, ancora più netto: ad agosto 2025, su ventisette Stati membri, uno solo — la Spagna — disponeva di un AI regulatory sandbox operativo.

I due dati non sono anomalie distinte. Sono la doppia evidenza empirica dello stesso deficit strutturale: il livello decentralizzato dell’AI Act non si sta costruendo alla velocità e con la coerenza che il Regolamento richiede.

Breve storia e definizione: dal fintech all’AI Act

Il concetto di regulatory sandbox non nasce con l’AI Act. Secondo Lanamäki et al. nel loro studio pubblicato su Digital Society nel 2025, esso è emerso per la prima volta nel 2016 con la regolamentazione del settore fintech nel Regno Unito, quando la Financial Conduct Authority (FCA) ha lanciato il primo programma formale di sandbox regolatoria. Le evidenze empiriche disponibili — tra cui lo studio della Bank for International Settlements (BIS) sui sandbox fintech nel mercato UK — mostrano che i sandbox hanno ridotto l’incertezza giuridica e favorito l’incremento degli investimenti venture nelle imprese fintech partecipanti.

Il concetto si è poi esteso rapidamente ad altri settori. Madiega e Van De Pol, nel briefing EPRS del 2022 Artificial intelligence act and regulatory sandboxes (PE 733.544), documentano come i sandbox siano stati adottati nei settori dei trasporti, dell’energia, delle telecomunicazioni e della salute, e come il Regno Unito e la Norvegia avessero già istituito sandbox regolatorie specifiche per i prodotti AI. Lo stesso documento ricorda che il Parlamento europeo aveva invocato l’introduzione di strumenti di sandbox in diverse risoluzioni a partire dal 2019.

I benefici dei sandbox sono stati analizzati anche dall’OCSE nel rapporto del 2020 The role of sandboxes in promoting flexibility and innovation in the digital age, che ha evidenziato come questi strumenti possano facilitare il dialogo tra autorità e nuovi operatori di mercato, consentendo ai regolatori di acquisire conoscenze dalle imprese innovative. I rischi di implementazione sono stati invece documentati dalla World Bank nel rapporto How to Build a Regulatory Sandbox: A Practical Guide for Policy Makers (Jeník e Duff, 2021): oneri amministrativi aggiuntivi e carenza di risorse possono annullare i benefici attesi, soprattutto nei contesti in cui le autorità nazionali non dispongono delle competenze tecniche necessarie per gestire efficacemente un sandbox.

La proposta di Regolamento della Commissione europea sull’AI Act, pubblicata nell’aprile 2021, ha introdotto per la prima volta i sandbox regolativi AI nel quadro normativo europeo. La versione finale del Regolamento (UE) 2024/1689, adottata nel 2024, ha tradotto questo strumento in un obbligo giuridico preciso.

La funzione normativa: un obbligo strutturale, non un’opzione

Il regulatory sandbox non è uno strumento facoltativo nell’architettura dell’AI Act. Ai sensi degli articoli 57–63 del Regolamento (UE) 2024/1689, ogni Stato membro è obbligato a garantire che le proprie autorità nazionali competenti stabiliscano, o partecipino a, almeno un AI regulatory sandbox operativo entro il 2 agosto 2026.

L’articolo 3, punto 55, dell’AI Act definisce il regulatory sandbox come un «framework controllato istituito da un’autorità competente che offre ai fornitori o ai potenziali fornitori di sistemi AI la possibilità di sviluppare, addestrare, validare e testare, ove appropriato in condizioni reali, un sistema AI innovativo, in conformità a un piano sandbox per un periodo limitato sotto supervisione regolatoria».

La funzione normativa del sandbox è triplice: ridurre l’incertezza giuridica per i provider durante la fase di sviluppo, favorire il dialogo anticipato tra regolatori e innovatori, e facilitare l’accesso al mercato unico — con misure specifiche dedicate alle PMI e alle startup, previste dall’articolo 62 del Regolamento. I sandbox sono accessibili su base volontaria per i provider e si propongono di migliorare la certezza giuridica nel perseguimento della conformità regolatoria, di supportare la condivisione delle migliori pratiche mediante la cooperazione, di contribuire all’apprendimento regolatorio basato sull’evidenza e di accelerare l’accesso al mercato unico.

Non si tratta di un laboratorio facoltativo: è un tassello strutturale del sistema di compliance dell’AI Act, senza il quale l’intero percorso di valutazione della conformità per i sistemi ad alto rischio rimane privo di un punto di ingresso operativo.

Lo stato di attuazione: 1 su 27

Il documento EPRS PE 785.673 riporta i dati rilevati da Deirdre Ahern nel suo studio Operationalising AI Regulatory Sandboxes under the EU AI Act: The Triple Challenge of Capacity, Coordination and Attractiveness to Providers, pubblicato nel settembre 2025 su Cambridge Forum on AI: Law and Governance (Cambridge University Press). Il quadro aggiornato ad agosto 2025 è il seguente: su ventisette Stati membri, uno solo — la Spagna — dispone di un AI regulatory sandbox operativo; cinque sono in fase di implementazione attiva; quattro hanno dichiarato l’intenzione di istituirne uno; sedici non hanno ancora comunicato i propri piani.

L’unico caso operativo merita attenzione non solo come dato statistico ma come benchmark concreto. Il sandbox spagnolo, promosso dalla Segreteria di Stato per la Digitalizzazione e l’Intelligenza Artificiale (SEDIA) e supportato dall’Agencia Española de Supervisión de la Inteligencia Artificial (AESIA), ha aperto nell’aprile 2025 e ha accolto dodici sistemi AI ad alto rischio in fase di test, operanti in sei settori: servizi essenziali, biometria, occupazione, infrastrutture critiche, macchinari e prodotti sanitari. Dal punto di vista operativo, il sandbox ha fornito ai partecipanti formazione specialistica di alto livello e consulenza regolatoria diretta — non un semplice ambiente di test, ma un accompagnamento attivo nella comprensione e nell’applicazione dei requisiti dell’AI Act in condizioni reali. Il risultato concreto è stato un set di sedici linee guida pratiche pubblicate dall’AESIA nel dicembre 2025, che rappresentano al momento il principale riferimento operativo disponibile a livello europeo in assenza di implementing acts adottati dalla Commissione.

Tuttavia, l’esperienza spagnola solleva anche un interrogativo critico di replicabilità: il sandbox AESIA ha funzionato in un contesto in cui l’agenzia era già operativa, aveva personale formato e godeva di un mandato istituzionale chiaro. Queste condizioni non sono uniformemente presenti negli altri ventisei Stati membri, e in molti casi non lo saranno entro il 2 agosto 2026. Il modello spagnolo è un punto di riferimento, non un modello replicabile in tempi brevi su scala europea.

Il confronto con il dato degli 8/27 sui single points of contact analizzato nell’articolo precedente è diretto: stesso pattern, deficit ancora più marcato. La scadenza per i SPC era il 2 agosto 2025; quella per i sandbox è il 2 agosto 2026. Eppure, un anno prima della scadenza, un solo Stato su ventisette era operativo. I due dati, letti insieme, non descrivono ritardi burocratici fisiologici: descrivono un sistema che non si sta costruendo.

Le tre sfide strutturali

Il documento EPRS PE 785.673, riprendendo l’analisi di Claudio Novelli et al. contenuta nello studio Getting Regulatory Sandboxes Right: Design and Governance Under the AI Act (SSRN, 2025), identifica tre categorie di sfide. Vale la pena svilupparle con un angolo critico, perché ciascuna rivela una dimensione del problema che trascende il piano meramente tecnico.

Design

Novelli et al. descrivono tre fasi del ciclo di vita di un regulatory sandbox: pre-testing, testing e post-testing. Progettare un sandbox richiede scelte precise su variabili complesse lungo ciascuna di queste fasi: criteri di ammissibilità e selezione dei partecipanti (pre-testing); livello di realismo della supervisione e replicazione delle condizioni operative reali (testing); percorso di uscita e valutazione della conformità semplificata (post-testing). Il giusto equilibrio tra queste variabili è essenziale per attrarre innovatori — inclusi i provider in fase di sviluppo precoce, che non necessitano dello stesso supporto di quelli in fase avanzata — senza compromettere il rigore della supervisione regolatoria.

Il problema è che la Commissione non ha ancora adottato gli implementing acts che avrebbero dovuto fornire il quadro di riferimento condiviso per queste scelte. Il 2 dicembre 2025 è stata pubblicata una bozza con richiesta di feedback entro il 6 gennaio 2026, ma a marzo 2026 gli atti definitivi non sono ancora disponibili. Ogni Stato membro che abbia deciso di procedere autonomamente ha quindi dovuto operare scelte di design senza un quadro secondario condiviso — con il rischio concreto di produrre sandbox strutturalmente incompatibili tra loro.

Frammentazione

Le norme sui sistemi AI ad alto rischio sono applicate a livello nazionale attraverso le autorità competenti di ciascuno Stato membro. Lo stesso vale per i sandbox: ciascuno è istituito e gestito dall’autorità nazionale competente, con le risorse che quella autorità riesce a mobilitare. Il risultato prevedibile è una capacità disomogenea: alcuni sandbox saranno meglio finanziati, meglio staffati e meglio attrezzati di altri.

Questa disomogeneità genera un rischio specifico che il documento EPRS PE 785.673 identifica con precisione: il sandbox shopping. I provider di sistemi AI potrebbero scegliere deliberatamente il sandbox nazionale meno stringente per testare i propri sistemi, massimizzando le probabilità di ottenere una valutazione favorevole con il minor onere possibile. Il paradosso è evidente: lo strumento pensato per ridurre l’incertezza giuridica e favorire una compliance uniforme rischia di amplificare esattamente la frammentazione regolatoria che il modello ibrido dell’AI Act dovrebbe contenere.

Il report della World Bank aveva già avvertito che la carenza di risorse e competenze nelle autorità nazionali costituisce uno dei principali rischi di implementazione dei sandbox, con il pericolo che gli oneri amministrativi aggiuntivi superino i benefici attesi. Questo avvertimento è oggi pienamente confermato dal quadro europeo.

Timing

Le sfide di design e frammentazione sono aggravate dai vincoli temporali. I sandbox devono essere operativi entro il 2 agosto 2026. Gli implementing acts che avrebbero dovuto guidare la loro progettazione non sono ancora stati adottati. Gli Stati membri che intendono rispettare la scadenza devono quindi procedere in parallelo su tre fronti — progettazione del framework, reclutamento e formazione del personale, costruzione della capacità tecnica — senza un riferimento normativo secondario definitivo. È una corsa contro il tempo che, stando ai dati aggiornati ad agosto 2025 riportati dal documento EPRS PE 785.673, sedici Stati membri su ventisette non hanno ancora nemmeno iniziato.

Il Digital Omnibus e il sandbox EU-level: centralizzazione o supplenza?

La proposta della Commissione COM(2025) 836 prevede di attribuire alla Commissione — tramite l’AI Office — il diritto di creare un AI regulatory sandbox a livello europeo per i sistemi AI sotto la propria supervisione, e di rafforzare il coordinamento tra i sandbox nazionali.

Nel Draft Report PE782.530, analizzato nel nostro articolo dedicato, il Parlamento europeo ha raffinato questa proposta su tre punti. L’Emendamento 17 estende l’accesso prioritario al sandbox EU-level anche alle piccole imprese di medie dimensioni e alle startup, ampliando la platea di beneficiari. L’Emendamento 18 — il più incisivo sul piano della protezione dei dati — richiede che l’AI Office garantisca che, nei casi in cui i sistemi testati nel sandbox comportino il trattamento di dati personali, le autorità competenti per la protezione dei dati siano associate all’operazione del sandbox e coinvolte nella supervisione degli aspetti di loro competenza, in conformità con il GDPR, il Regolamento (UE) 2018/1725 e la Direttiva 2016/680. L’Emendamento 20 estende questa logica alle norme di governance: gli atti di esecuzione della Commissione sulle procedure operative dovranno regolare anche il coinvolgimento e la supervisione delle autorità di protezione dei dati.

Questi emendamenti rafforzano le garanzie del sandbox EU-level, ma non risolvono la tensione di fondo. La questione non è se un sandbox EU-level sia utile — lo è, in particolare per i sistemi AI integrati nelle VLOP e VLOSE e per quelli basati su modelli GPAI dello stesso fornitore, che sono per definizione transnazionali. La questione è se possa svolgere una funzione di supplenza strutturale rispetto al vuoto dei sandbox nazionali. La risposta è no, per una ragione precisa: il sandbox EU-level opera nell’ambito della competenza dell’AI Office, che copre i modelli GPAI e i sistemi nelle grandi piattaforme. I sistemi AI ad alto rischio nei settori elencati nell’Allegato III — sistemi di valutazione del credito, sistemi usati nell’istruzione, nella salute, nell’occupazione, nell’amministrazione della giustizia — restano nell’orbita delle autorità nazionali. Se queste autorità non hanno designato le proprie strutture e non hanno istituito i propri sandbox, nessun sandbox EU-level può supplire a questa assenza.

L’AI Office rimane una funzione della Commissione ai sensi dell’articolo 3, punto 47, dell’AI Act: è strutturata come funzione interna della Commissione, senza la personalità giuridica autonoma e le garanzie di indipendenza operativa tipiche delle agenzie dell’Unione. Ampliarne le competenze nell’ambito dei sandbox senza affrontare il deficit di capacità istituzionale al livello decentralizzato significa costruire un livello superiore solido su fondamenta ancora incomplete.

Valutazione critica

Tre piani, coerenti con l’impianto della serie.

Sul piano normativo, l’obbligo di sandbox è ben costruito nell’AI Act: volontario per i provider, obbligatorio per gli Stati, con misure specifiche per PMI e startup, e con un sistema di coordinamento che coinvolge la Commissione, l’AI Board e le autorità nazionali. La debolezza non è nel testo del Regolamento ma nell’assenza di implementing acts tempestivi e nella mancanza di un meccanismo vincolante di coordinamento tra sandbox nazionali — lo stesso deficit di coordinamento già identificato per l’enforcement sui sistemi AI ad alto rischio.

Sul piano fattuale, vale la pena considerare la lettura alternativa: i ritardi nell’attuazione dei sandbox potrebbero essere interpretati come fisiologici, frutto della complessità tecnica e istituzionale di costruire ex novo una struttura senza precedenti nei sistemi regolativi nazionali. Questa lettura, tuttavia, non regge a un esame attento. La scadenza del 2 agosto 2026 era nota dall’entrata in vigore del Regolamento il 1° agosto 2024. Due anni sono un orizzonte sufficiente per avviare almeno le procedure di designazione e progettazione. Il fatto che sedici Stati membri su ventisette non abbiano ancora comunicato i propri piani non è un ritardo tecnico: è un indicatore di priorità istituzionale. Ahern identifica nella triplice sfida — capacità, coordinamento, attrattività — un problema strutturale, non contingente. Il dato dell'1/27 è la sua manifestazione empirica più diretta.

Sul piano prospettico, centralizzare nell’AI Office competenze crescenti sui sandbox — senza risolvere il deficit di capacità e coordinamento a livello nazionale — non produce un sistema più uniforme: produce un sistema più squilibrato. Le responsabilità si concentrano a un livello superiore, mentre il livello inferiore rimane largamente inoperativo. Il risultato è un’asimmetria di secondo livello: tra i sistemi AI che potranno accedere al sandbox EU-level e quelli — la maggioranza per numero e rilevanza sociale — che restano nell’orbita dei sandbox nazionali non ancora operativi.

Conclusione

I due articoli di questa serie — sull’enforcement ibrido e sui regulatory sandbox — descrivono lo stesso fenomeno da due angoli diversi. L’AI Act dispone di un’architettura regolatoria ambiziosa e tecnicamente coerente: enforcement ibrido, sandbox obbligatori, AI Office, AI Board, Scientific Panel. Ma un’architettura normativa funziona solo se le istituzioni chiamate a darle attuazione sono operative, coordinate e dotate delle risorse necessarie.

I dati disponibili a marzo 2026 mostrano che su nessuno di questi tre requisiti il sistema è attualmente soddisfatto in modo uniforme. Ventisette ordinamenti nazionali, ventisette percorsi di implementazione divergenti, un solo sandbox operativo e otto punti di contatto unici designati. Non è un ritardo: è la condizione strutturale in cui l’AI Act si appresta ad applicarsi pienamente dal 2 agosto 2026.


Documenti di riferimento

  • Regolamento (UE) 2024/1689 del Parlamento europeo e del Consiglio del 13 giugno 2024 (AI Act), artt. 57–63: OJ L, 2024/1689, 12.7.2024
  • EPRS, AI regulatory sandboxes: State of play and implementation challenges, At a glance, PE 785.673, marzo 2026: link
  • EPRS, Enforcement of the AI Act, At a glance, PE 785.670, marzo 2026: link
  • Madiega T. e Van De Pol A.L., Artificial intelligence act and regulatory sandboxes, EPRS Briefing, PE 733.544, giugno 2022: link
  • Lanamäki A. et al., What to Expect from the Upcoming EU AI Act Sandboxes: Panel Report, Digital Society, vol. 4, art. 42, 2025: link
  • Novelli C. et al., Getting Regulatory Sandboxes Right: Design and Governance Under the AI Act, SSRN, 2025: link
  • Ahern D.M., Operationalising AI Regulatory Sandboxes under the EU AI Act: The Triple Challenge of Capacity, Coordination and Attractiveness to Providers, Cambridge Forum on AI: Law and Governance, Cambridge University Press, 2025: link
  • OCSE, The role of sandboxes in promoting flexibility and innovation in the digital age, OECD Going Digital Toolkit Notes, n. 2, 2020: link
  • Jeník I. e Duff S., How to Build a Regulatory Sandbox: A Practical Guide for Policy Makers, World Bank, 2021: link
  • AESIA, linee guida del sandbox spagnolo, dicembre 2025: link
  • Commissione europea, bozza di implementing act sui sandbox AI, dicembre 2025: link
  • Commissione europea, COM(2025) 836 final, 19.11.2025: link
  • Draft Report IMCO-LIBE, PE782.530v01-00, 5.2.2026: link

Articoli precedenti della serie