AI Act: Il 2 Agosto 2025 Segna una Svolta Decisiva per l’Intelligenza Artificiale in Europa

Il countdown è quasi terminato. Tra tre giorni, il 2 agosto 2025, entrerà in vigore la seconda fase dell’AI Act europeo, portando con sé un pacchetto di norme che ridefinirà il panorama dell’intelligenza artificiale nel Vecchio Continente. Se pensavate che le prime disposizioni entrate in vigore a febbraio fossero solo un antipasto, preparatevi al piatto principale.

E mentre scriviamo queste righe, gli ultimi tasselli del puzzle normativo si stanno mettendo in posizione con sviluppi che renderanno questo agosto ancora più significativo del previsto.

Un Momento di Svolta Strategica

Dopo l’applicazione delle prime norme fondamentali lo scorso febbraio - che hanno bandito le pratiche di IA più pericolose e stabilito i principi generali - agosto segnerà l’inizio della vera e propria regolamentazione operativa. Non stiamo parlando di modifiche marginali: il 28,3% di tutte le disposizioni dell’AI Act sarà operativo entro quella data, creando un framework normativo che le aziende non potranno più ignorare.

Cronologia di Applicazione dell'AI Act

02/02/2025
02/08/2025
02/08/2026
02/08/2027
CAPO
GRUPPO DI ARTICOLI
DATA APPLICAZIONE
Capo I - DISPOSIZIONI GENERALI
artt. 1-4
02/02/2025
Capo II - PRATICHE DI IA VIETATE
art. 5
02/02/2025
Capo III - SISTEMI DI IA AD ALTO RISCHIO - (Sez. 1 Classificazione sistemi IA ad alto rischio)
artt. 6-7
02/08/2026
Capo III - SISTEMI DI IA AD ALTO RISCHIO - (Sez. 2 Requisiti per sistemi IA ad alto rischio)
artt. 8-15
02/08/2026
Capo III - SISTEMI DI IA AD ALTO RISCHIO - (Sez. 3 Obblighi fornitori e deployer)
artt. 16-27
02/08/2026
Capo III - SISTEMI DI IA AD ALTO RISCHIO - (Sez. 4 Autorità di notifica e organismi notificati)
artt. 28-39
02/08/2025
Capo III - SISTEMI DI IA AD ALTO RISCHIO - (Sez. 5 Norme, valutazione conformità, certificati)
artt. 40-49
02/08/2026
Capo IV - OBBLIGHI DI TRASPARENZA
art. 50
02/08/2026
Capo V - MODELLI DI IA PER FINALITÀ GENERALI
artt. 51-56
02/08/2025
Capo VI - MISURE A SOSTEGNO DELL'INNOVAZIONE
artt. 57-63
02/08/2026
Capo VII - GOVERNANCE
artt. 64-70
02/08/2025
Capo VIII - BANCA DATI DELL'UE
art. 71
02/08/2026
Capo IX - MONITORAGGIO E VIGILANZA
artt. 72-94
02/08/2026
Capo X - CODICI DI CONDOTTA E ORIENTAMENTI
artt. 95-96
02/08/2026
Capo XI - DELEGA DI POTERE E PROCEDURA
artt. 97-98
02/08/2026
Capo XII - SANZIONI
artt. 99-101 (eccetto art. 101)
02/08/2025
Capo XIII - DISPOSIZIONI FINALI
artt. 102-113
02/08/2026
Art. 6, par. 1
Regole di classificazione sistemi IA ad alto rischio
02/08/2027

🔍 Note Aggiuntive

  • Articolo 101 (Sanzioni pecuniarie per i fornitori di modelli di IA per finalità generali) del Capo XII non entra in vigore il 02/08/2025
  • Il 02/08/2026 rappresenta la data di applicazione completa di tutte le disposizioni dell'AI Act
  • L'articolo 6, paragrafo 1 del Capo III ha una data di applicazione posticipata al 02/08/2027
  • Percentuale di applicazione: Dal 02/08/2025 si applicherà il 28.3% delle norme dell'AI Act (32 articoli su 113 totali)

Le Quattro Aree Chiave che Cambieranno Tutto

1. Governance e Supervisione: La Nascita dell’Ecosistema di Controllo

Il Capo VII porta con sé la struttura di governance europea che supervisionerà l’intero settore. Non si tratta solo di burocrazia: stiamo assistendo alla nascita di un sistema di controllo coordinato che avrà il potere di influenzare lo sviluppo dell’IA a livello globale. Le autorità nazionali dovranno coordinarsi con Bruxelles, creando una rete di supervisione senza precedenti.

L’effetto pratico? Le aziende dovranno confrontarsi con interlocutori istituzionali chiari e processi standardizzati, ma anche con controlli più stringenti e coordinati.

2. Modelli di IA Generali: La Regola del Gigante (Ora con Roadmap Concreta)

Il Capo V (articoli 51-56) rappresenta forse la novità più significativa per il mercato attuale, e le ultime settimane hanno chiarito esattamente come funzionerà nella pratica.

Il Codice di Condotta è Realtà
Il 10 luglio 2025 la Commissione Europea ha ricevuto ufficialmente il Codice di Condotta per i modelli GPAI, sviluppato da 13 esperti indipendenti con oltre 1.000 stakeholder. Non si tratta più di ipotesi: l’AI Office europeo sta già invitando i fornitori a firmare questo framework volontario che diventerà operativo tra tre giorni. (v. nostro articolo qui)

Cosa Cambia Concretamente:

  • Percorso di compliance semplificato per i fornitori di modelli IA
  • Maggiore certezza legale e riduzione degli oneri amministrativi
  • Focus della Commissione sull’aderenza al codice piuttosto che su altri metodi di enforcement

Il Template di Trasparenza è Definitivo
Il 24 luglio 2025, appena sei giorni fa, la Commissione ha pubblicato il template finale per la trasparenza dei dati di training, dopo una consultazione che ha raccolto oltre 430 risposte. Ora sappiamo esattamente cosa dovranno dichiarare i fornitori (v. nostro articolo qui):

  • Informazioni generali: Identificazione del modello, modalità, dimensioni dei dati di training
  • Fonti dei dati: Dataset pubblici, contenuti licenziati, dati web-scraped (top 10% dei domini)
  • Compliance legale: Rispetto del copyright e misure di rimozione di contenuti illegali

Timeline Cristallina:

  • 2 agosto 2025: Le regole entrano in vigore per i nuovi modelli
  • 2 agosto 2026: Inizio dell’enforcement UE
  • 2 agosto 2027: Scadenza compliance per i modelli esistenti

3. L’Infrastruttura di Controllo: Autorità e Organismi Notificati

La Sezione 4 del Capo III (articoli 28-39) crea l’ossatura del sistema di controllo per i sistemi ad alto rischio. Stiamo parlando della nascita di una vera e propria “FDA europea” per l’intelligenza artificiale, con:

  • Autorità di notifica che accrediteranno gli organismi di valutazione
  • Organismi notificati che certificheranno la conformità dei sistemi IA
  • Procedure standardizzate per la valutazione della conformità

Perché è cruciale? Perché stabilisce chi può dire “sì” o “no” ai sistemi di IA ad alto rischio in Europa. Un potere enorme che modellerà il futuro del settore.

Il Tassello Fondamentale: Gli Standard Armonizzati
Ma c’è un elemento cruciale che si sta definendo proprio in questi giorni e che completerà questo puzzle normativo. Il 23 giugno 2025, poco più di un mese fa, la Commissione Europea ha adottato una nuova Implementing Decision (C(2025)3871) che aggiorna la precedente richiesta di standardizzazione, fissando una scadenza al 31 agosto 2025 per CEN e CENELEC per completare gli standard armonizzati a supporto dei sistemi IA ad alto rischio.

Questa decisione è particolarmente significativa perché:

  • Sostituisce completamente la precedente decisione del 2023, allineandosi al testo finale dell’AI Act
  • Accelera i tempi: da aprile 2025 a fine agosto 2025
  • Introduce standard armonizzati che daranno presunzione di conformità ai sistemi IA che li rispettano

(Fonte: Implementing Decision C(2025)3871)

Questi standard copriranno gli aspetti tecnici più critici dell’AI Act, e senza di essi l’intera architettura di controllo rimarrebbe incompleta. Come approfondisco nel mio libro “Intelligenza Artificiale, Privacy e Reti Neurali: L’equilibrio tra innovazione, conoscenza ed etica nell’era digitale”, la standardizzazione tecnica rappresenta il ponte indispensabile tra principi normativi e implementazione pratica.

4. Sanzioni: Quando la Compliance Diventa Obbligatoria

Il Capo XII introduce il regime sanzionatorio (eccetto l’articolo 101 che sarà applicato successivamente). Le multe possono arrivare fino al 7% del fatturato annuo globale per le violazioni più gravi. Non stiamo parlando di multe simboliche: sono cifre che possono mettere in ginocchio anche le multinazionali più solide.

Gli Sviluppi dell’Ultima Ora che Cambiano Tutto

Il Sostegno del Parlamento Europeo

Il 16 luglio 2025, i co-presidenti del Gruppo di Lavoro sull’AI Act del Parlamento Europeo, Brando Benifei (S&D, IT) e Michael McNamara (Renew, IE), hanno rilasciato una dichiarazione congiunta definendo il Codice di Condotta GPAI come “una base pragmatica e tempestiva” per gestire i rischi sistemici. Un endorsement politico cruciale che legittima l’approccio scelto. (v. nostro articolo qui)

La Crisi del Framework di Responsabilità

Ma non tutto fila liscio. Il 24 luglio 2025, proprio ieri, uno studio del Parlamento Europeo ha rivelato che la Commissione sta considerando il ritiro della Direttiva sulla Responsabilità dell’IA (AILD) nel 2025. Questo potrebbe creare un vuoto normativo significativo proprio mentre l’AI Act entra nel vivo. (v. nostro articolo qui)

Perché è un problema:

  • Incertezza legale per le aziende che operano oltre i confini UE
  • Protezione inadeguata delle vittime quando i sistemi IA causano danni
  • Frammentazione del mercato con ogni Stato membro che sviluppa il proprio approccio

La Germania ha già una legge sulla guida autonoma, l’Italia sta lavorando al suo AI bill. L’Europa ha pochi mesi per evitare una frammentazione irreversibile del mercato.

Gli Effetti a Cascata che Stanno Emergendo Ora

Effetto Bruxelles Potenziato

L’AI Act non si fermerà ai confini europei, e i recenti sviluppi lo confermano. Le aziende globali che vogliono operare nel mercato UE dovranno conformarsi alle regole europee, e il Codice di Condotta GPAI ora offre loro un percorso chiaro per farlo. È lo stesso fenomeno che abbiamo visto con il GDPR, ma amplificato e accelerato.

La Corsa alla Firma

L’AI Office europeo sta già raccogliendo le adesioni al Codice di Condotta tramite il form di adesione inviabile a EU-AIOFFICE-CODE-SIGNATURES@ec.europa.eu. Chi firma ora ottiene non solo compliance anticipata, ma anche un vantaggio reputazionale significativo.

Il Paradosso della Certezza Normativa

Paradossalmente, regole più chiare potrebbero accelerare l’innovazione responsabile. Il Codice offre “maggiore prevedibilità nelle aspettative normative” e “riduzione degli oneri amministrativi” - esattamente quello che le aziende chiedevano.

Cosa Fare Adesso: La Roadmap per le Prossime 72 Ore

Per i fornitori di modelli GPAI:

  • Azione immediata: Contattate EU-AIOFFICE-CODE-SIGNATURES@ec.europa.eu per firmare il Codice di Condotta
  • Preparate il template di trasparenza usando il formato pubblicato il 24 luglio
  • Identificate se i vostri modelli rientrano nelle soglie per modelli avanzati a rischio sistemico

Per le grandi aziende tech:

  • Iniziate subito la mappatura dei vostri modelli di IA rispetto alle soglie del Capo V
  • Monitorate gli sviluppi sulla Direttiva di Responsabilità IA
  • Avviate dialoghi con le future autorità di notifica nei vostri mercati chiave

Per le PMI innovative:

  • Non sottovalutate l’impatto: anche sistemi apparentemente semplici potrebbero rientrare nelle definizioni
  • Considerate la compliance come investimento strategico, non come costo
  • Nuovo: Valutate l’adesione volontaria al Codice di Condotta come segnale di serietà

Per tutti:

  • Il 2 agosto 2025 è dopodomani: preparatevi al cambio di paradigma
  • Iniziate a costruire processi di governance dell’IA interni
  • Investite in formazione: la compliance sarà una competenza chiave
  • Monitorate l’evoluzione del framework di responsabilità per evitare sorprese

Verso un Futuro Regolamentato ma Incerto

Il 2 agosto 2025 non segnerà la fine dell’innovazione nell’IA, ma l’inizio di un nuovo capitolo in cui tecnologia e responsabilità camminano insieme. L’Europa sta scommettendo che si possa essere leader tecnologici rimanendo leader etici.

Tuttavia, i recenti sviluppi mostrano che la strada non è priva di ostacoli. Mentre il Codice di Condotta GPAI rappresenta un successo del dialogo multi-stakeholder, la potenziale crisi del framework di responsabilità rivela le complessità di una regolamentazione così ambiziosa.

Le domande aperte:

  • Riuscirà l’Europa a evitare la frammentazione del mercato della responsabilità IA?
  • Il Codice di Condotta manterrà la sua efficacia oltre il “paper tiger” temuto dal Parlamento?
  • Come reagiranno i mercati globali a questa accelerazione normativa?

Le aziende che sapranno navigare questa complessità - abbracciando le opportunità del Codice di Condotta mentre si preparano alle incertezze del framework di responsabilità - non solo sopravvivranno, ma prospereranno in un mercato che premierà sempre di più l’innovazione responsabile e trasparente.

Il futuro dell’IA europea si scrive in questi giorni. Letteralmente. E voi, siete pronti a scriverlo insieme?


Questo articolo si basa sull’analisi della cronologia di applicazione ufficiale dell’AI Act e sui più recenti sviluppi normativi di luglio 2025. Per aggiornamenti in tempo reale su questi sviluppi in rapida evoluzione, continuate a seguire il nostro blog.


Hashtag correlati

#AIAct #IntelligenzaArtificiale #2Agosto2025 #AIRegulation #EuropeanAI #AICompliance #DigitalEurope #ResponsibleAI #TechRegulation #AIGovernance #GeneralPurposeAI #GPAI