Il 9 aprile 2026, a un anno esatto dalla presentazione dell’AI Continent Action Plan, la Commissione europea ha pubblicato un aggiornamento sui risultati raggiunti. Il messaggio istituzionale è chiaro: i progressi ci sono e riguardano tutti e cinque i pilastri del piano — infrastruttura, dati, talenti, adozione e AI affidabile. Fra i traguardi rivendicati figurano 19 AI Factory operative sui supercalcolatori europei, 13 antenne regionali (AI Factory antennas) per l’accesso distribuito, il lancio della Data Union Strategy, l’AI Omnibus per la semplificazione normativa, l’AI Skills Academy, l’Apply AI Strategy per i settori strategici e l’annuncio dell’European AI Innovation Month, previsto dal 14 ottobre al 17 novembre 2026.

Il quadro, sul piano quantitativo, è incontestabile. Ma la domanda di fondo non riguarda quante iniziative siano state avviate: riguarda se l’Europa stia costruendo un continente dell’intelligenza artificiale capace di tenere insieme potenza computazionale, accesso ai dati e garanzie effettive per le persone. Ed è su questo punto che il bilancio merita una lettura più attenta.

Infrastruttura e dati: progressi reali, autonomia ancora da costruire

L’espansione delle AI Factory e la prospettiva delle AI Gigafactory — con un investimento di 20 miliardi di euro attraverso InvestAI — rappresentano un salto infrastrutturale significativo. L’obiettivo dichiarato è dare a ricercatori, startup e PMI europee la capacità computazionale necessaria per addestrare e sviluppare modelli di intelligenza artificiale competitivi a livello globale.

Parallelamente, la Data Union Strategy mira a sbloccare il potenziale dell’accesso e della condivisione dei dati su scala continentale, condizione indispensabile per alimentare modelli di qualità.

Tuttavia, capacità computazionale e accesso ai dati sono condizioni necessarie ma non sufficienti per un’autonomia strategica europea effettiva. La dipendenza da supply chain extra-UE per i chip, le infrastrutture cloud e le piattaforme di base rimane un nodo strutturale irrisolto. Costruire fabbriche europee dell’AI è essenziale; garantire che operino su fondamenta tecnologiche effettivamente controllabili dall’Europa lo è altrettanto.

Il vero banco di prova: Trustworthy AI

La Commissione, nel comunicato odierno, ribadisce l’impegno per un’intelligenza artificiale trustworthy, secure and aligned with democratic values. Il richiamo è appropriato, ma nel bilancio del primo anno resta formulato in termini prevalentemente programmatici e sintetici, senza sviluppare in modo sostanziale il rapporto tra accelerazione industriale e garanzie operative.

Questo è il punto critico. L’idea di un’AI affidabile non può ridursi a slogan infrastrutturale né a una voce fra le tante in un elenco di pilastri. Deve tradursi in requisiti concreti: governance dei sistemi, accountability dei soggetti coinvolti nella catena del valore, trasparenza nei processi decisionali automatizzati e, soprattutto, supervisione umana effettiva.

Su quest’ultimo profilo, la supervisione umana non dovrebbe essere letta soltanto come requisito tecnico confinato ai sistemi ad alto rischio, ma come criterio interpretativo e valore regolatorio che orienta più in generale il modello europeo di AI governance. L’AI Act la prevede espressamente fra i requisiti per i sistemi high-risk, ma il suo significato sistematico trascende quella specifica categoria: è un principio che informa l’intero impianto normativo e ne esprime la logica di fondo.

Il rischio, oggi, è quello di uno squilibrio: un’accelerazione industriale robusta e visibile, a fronte di garanzie operative ancora largamente da costruire e da rendere effettive nella pratica.

Semplificazione normativa e rischio di indebolimento delle garanzie

Fra i progressi rivendicati dalla Commissione, l’AI Omnibus occupa un posto centrale. L’obiettivo dichiarato è fornire alle imprese certezza giuridica e ridurre i costi di conformità, in coerenza con l’agenda di semplificazione del Digital Omnibus Package presentato il 19 novembre 2025.

La posizione delle autorità europee di protezione dei dati merita attenzione. Con il Joint Opinion 1/2026 del 20 gennaio 2026, EDPB ed EDPS hanno preso posizione sulla proposta di Digital Omnibus on AI. Il messaggio è articolato: sostegno all’obiettivo generale di semplificazione dell’attuazione dell’AI Act, ma con richieste precise di salvaguardie più forti.

In particolare, EDPB ed EDPS hanno espresso preoccupazione per il rinvio delle scadenze relative ai sistemi AI ad alto rischio, per l’abbassamento dello standard di strict necessity nel trattamento di categorie particolari di dati personali ai fini del bias detection, per la cancellazione dell’obbligo di registrazione per i sistemi di cui all’Allegato III valutati come non ad alto rischio dai fornitori stessi, e per la proposta di trasformare l’obbligo di AI literacy da dovere di fornitori e deployer a mero meccanismo di incoraggiamento pubblico.

Con il successivo Joint Opinion 2/2026 del 10 febbraio 2026 — relativo al Digital Omnibus nel suo complesso, incluse le modifiche al GDPR — le autorità hanno ribadito la stessa linea: la semplificazione è legittima e in alcuni casi necessaria, ma non deve tradursi in una ridefinizione restrittiva delle garanzie previste dalla normativa sulla protezione dei dati personali.

Il principio è chiaro: semplificazione senza deregolamentazione. La complementarità tra AI Act e GDPR costituisce uno degli architravi del modello europeo e va preservata, non sacrificata alla competitività.

Il caso italiano: un primo test nazionale

In questo contesto, il caso italiano offre già alcuni primi segnali applicativi utili a misurare la tenuta concreta del paradigma europeo, sul piano dell’interpretazione giuridica e dell’attuazione pratica.

La Legge 23 settembre 2025, n. 132 ha introdotto una cornice nazionale complementare all’AI Act nel contesto italiano. I primi segnali normativi e giurisprudenziali nazionali suggeriscono che il banco di prova non sarà soltanto l’innovazione infrastrutturale, ma la tenuta operativa delle garanzie — in termini di trasparenza, supervisione umana e tutela dei diritti fondamentali — nel concreto funzionamento dei sistemi AI adottati nel settore pubblico e privato.

L’esperienza italiana, pur ancora nelle fasi iniziali, rappresenta un laboratorio significativo per verificare se il modello europeo è in grado di reggere il passaggio dalla norma alla prassi.

Conclusione: la credibilità del modello europeo si gioca qui

L’AI Continent Action Plan, a un anno dal lancio, mostra progressi reali sul piano infrastrutturale e organizzativo. L’Europa sta investendo nella capacità computazionale, nell’accesso ai dati, nella formazione dei talenti e nell’adozione dell’AI nei settori strategici. Questi sono dati di fatto.

Ma la specificità politica e giuridica del modello europeo non si misura sulla potenza dei supercalcolatori. Si misura sulla capacità di rendere operativo il pilastro della Trustworthy AI: governance effettiva, accountability reale, supervisione umana concreta, tutela sostanziale dei diritti fondamentali. E su questo fronte, il cammino è ancora lungo.

Le posizioni espresse da EDPB ed EDPS nei Joint Opinion del gennaio e febbraio 2026 indicano con chiarezza che semplificazione e tutela dei diritti non sono obiettivi alternativi, ma devono procedere insieme. Il prossimo European AI Innovation Month, dal 14 ottobre al 17 novembre 2026, sarà un’occasione importante per verificare se le promesse infrastrutturali si accompagneranno a garanzie altrettanto solide per le persone.

La vera domanda resta aperta: l’Europa vuole essere un continente dell’AI, o un continente dell’AI affidabile? La risposta non è ancora scritta.