Oggi la svolta: disponibile la prima bozza del codice

17 dicembre 2025 - La Commissione Europea ha pubblicato oggi la prima bozza del Codice di Pratica sulla marcatura e l’etichettatura dei contenuti generati dall’intelligenza artificiale, un documento atteso che segna un passo fondamentale nella regolamentazione della trasparenza dell’IA in Europa. La pubblicazione rispetta la timeline stabilita per finalizzare il codice entro giugno 2026, quando diventerà lo strumento di riferimento per fornitori e utilizzatori di sistemi di intelligenza artificiale generativa.

Questo momento rappresenta la concretizzazione di un processo avviato il 5 novembre 2025, quando l’Ufficio Europeo per l’Intelligenza Artificiale (AI Office) ha dato il via a un percorso collaborativo avviato nel novembre 2025 e destinato a concludersi con la finalizzazione del Codice entro giugno 2026, che coinvolge esperti indipendenti, stakeholder dell’industria, società civile e mondo accademico.

Struttura della prima bozza

Il documento presentato oggi si articola in due sezioni distinte, ciascuna dedicata a specifiche categorie di operatori e obblighi:

Prima sezione - Marcatura e rilevamento dei contenuti IA: rivolta ai fornitori di sistemi di IA generativa, questa sezione stabilisce le regole tecniche per contrassegnare i contenuti generati o manipolati dall’intelligenza artificiale in formati leggibili dalle macchine, consentendone il rilevamento automatico.

Seconda sezione - Etichettatura di deepfake e testi IA: indirizzata ai deployer (utilizzatori) di sistemi di IA generativa per scopi professionali, questa sezione definisce le modalità per etichettare chiaramente i deepfake e le pubblicazioni di testo generate o manipolate dall’IA su questioni di interesse pubblico.

I prossimi passi del processo

La pubblicazione odierna apre una fase cruciale di consultazione: la Commissione raccoglierà feedback sulla prima bozza da parte di partecipanti e osservatori del processo fino al 23 gennaio 2026. Questo periodo permetterà agli stakeholder di esaminare in dettaglio le proposte tecniche e normative contenute nel documento e di fornire contributi costruttivi.

Sulla base dei feedback ricevuti, è prevista la pubblicazione della seconda bozza entro metà marzo 2026, seguita da ulteriori round di consultazione che porteranno alla finalizzazione del Codice entro giugno 2026. Le regole sulla trasparenza dei contenuti generati dall’IA entreranno in vigore il 2 agosto 2026, dando ai fornitori e ai deployer il tempo necessario per implementare le misure tecniche e organizzative richieste.

Il contesto normativo: l’AI Act e l’articolo 50

La prima bozza pubblicata oggi costituisce l’implementazione pratica dell’Articolo 50 dell’AI Act (Regolamento UE 2024/1689), che rappresenta il primo quadro normativo completo al mondo per l’intelligenza artificiale. L’AI Act, entrato in vigore il 1° agosto 2024, adotta un approccio basato sul rischio, classificando i sistemi di IA in quattro categorie: rischio inaccettabile (sistemi proibiti), alto rischio (soggetti a requisiti stringenti), rischio limitato (soggetti a obblighi di trasparenza) e rischio minimo (non regolamentati).

L’Articolo 50, intitolato “Obblighi di trasparenza per i fornitori e i deployer di determinati sistemi di IA”, è il cuore normativo che la bozza del Codice di Pratica pubblicata oggi è chiamata ad attuare. Questo articolo stabilisce requisiti di trasparenza specifici per i fornitori e gli utilizzatori di sistemi di IA generativa e interattiva, con l’obiettivo di ridurre i rischi di disinformazione, frode, impersonificazione e inganno dei consumatori, promuovendo al contempo la fiducia nell’ecosistema informativo digitale.

I principali obblighi dell’articolo 50

L’Articolo 50 stabilisce diversi obblighi fondamentali:

Per i fornitori di sistemi di IA generativa: devono garantire che gli output dei loro sistemi (audio, immagini, video, testo) siano marcati in un formato leggibile dalle macchine e rilevabili come artificialmente generati o manipolati. Le soluzioni tecniche impiegate devono essere efficaci, interoperabili, robuste e affidabili nella misura tecnicamente possibile, tenendo conto delle specificità e dei limiti dei vari tipi di contenuto, dei costi di implementazione e dello stato dell’arte generalmente riconosciuto.

Per i deployer di sistemi che generano o manipolano deepfake: devono divulgare che il contenuto è stato generato o manipolato artificialmente. Un deepfake è definito come contenuto di immagini, audio o video generato o manipolato dall’IA che assomiglia a persone, oggetti, luoghi, entità o eventi esistenti e che potrebbe falsamente apparire a una persona come autentico o veritiero.

Per i deployer che pubblicano testo generato dall’IA: quando il testo viene pubblicato con lo scopo di informare il pubblico su questioni di interesse pubblico, deve essere divulgato che è stato generato o manipolato artificialmente salvo che il contenuto abbia subito revisione umana o controllo editoriale e che una persona fisica o giuridica assuma la responsabilità editoriale della pubblicazione.

Esenzioni: queste obbligazioni non si applicano quando l’uso è autorizzato dalla legge per rilevare, prevenire, indagare o perseguire reati. Per contenuti evidentemente artistici, creativi, satirici, di finzione o analoghi, gli obblighi di trasparenza sono limitati alla divulgazione dell’esistenza di tale contenuto generato o manipolato in modo appropriato che non ostacoli la visualizzazione o il godimento dell’opera.

La prima bozza: contenuti e obiettivi

La bozza pubblicata oggi traduce in termini operativi gli obblighi dell’Articolo 50 dell’AI Act, offrendo un quadro pratico e volontario per dimostrare la conformità alle normative europee. L’obiettivo è fornire a fornitori e deployer di sistemi di IA generativa linee guida chiare e tecnicamente realizzabili per garantire la trasparenza dei contenuti sintetici.

Sezione 1: marcatura e rilevamento per i fornitori

La prima sezione del Codice si concentra sulle tecnologie e metodologie di marcatura che i fornitori di sistemi di IA generativa devono implementare. Questi obblighi richiedono che:

  • Gli output dei sistemi di IA (audio, immagini, video, testo) siano contrassegnati in un formato leggibile dalle macchine e rilevabili come artificialmente generati o manipolati
  • Le soluzioni tecniche impiegate siano efficaci, interoperabili, robuste e affidabili nella misura tecnicamente possibile, tenendo conto delle specificità e dei limiti dei vari tipi di contenuto, dei costi di implementazione e dello stato dell’arte generalmente riconosciuto

Questa sezione affronta questioni tecniche cruciali come:

  • Standard di watermarking digitale
  • Metadati strutturati e crittograficamente sicuri
  • Protocolli di interoperabilità tra diverse piattaforme
  • Tecnologie di rilevamento automatico
  • Robustezza contro la rimozione o alterazione delle marcature

Sezione 2: etichettatura per i deployer

La seconda sezione si rivolge ai deployer - gli utilizzatori professionali di sistemi di IA generativa - e stabilisce obblighi di divulgazione chiari quando:

  • Si utilizzano deepfake: i deployer devono divulgare che il contenuto (immagini, audio o video che assomigliano a persone, oggetti, luoghi, entità o eventi esistenti) è stato generato o manipolato artificialmente

  • Si pubblicano testi generati dall’IA su questioni di interesse pubblico: quando il testo viene pubblicato con lo scopo di informare il pubblico su questioni di rilevanza pubblica, deve essere divulgato che è stato generato o manipolato artificialmente

Esenzioni previste: gli obblighi non si applicano quando l’uso è autorizzato dalla legge per rilevare, prevenire, indagare o perseguire reati. Per contenuti evidentemente artistici, creativi, satirici, di finzione o analoghi, gli obblighi di trasparenza sono limitati alla divulgazione dell’esistenza di tale contenuto generato o manipolato in modo appropriato che non ostacoli la visualizzazione o il godimento dell’opera.

Il processo di sviluppo: dal 5 novembre 2025 a oggi

La pubblicazione della prima bozza di oggi rappresenta il culmine del primo ciclo di lavoro iniziato con il lancio del processo il 5 novembre 2025. In quella data, l’AI Office ha tenuto un incontro plenario inaugurale che ha riunito esperti indipendenti, dando il via a un percorso collaborativo senza precedenti per complessità e inclusività.

Il processo di elaborazione del Codice è stato organizzato attorno a due gruppi di lavoro dedicati, che seguono la struttura degli obblighi di trasparenza per i contenuti generati dall’IA nell’Articolo 50:

Gruppo di Lavoro 1: tecniche di marcatura e rilevamento per i fornitori

Presieduto dalla professoressa Kalina Bontcheva dell’Università di Sheffield, questo gruppo si è concentrato sugli obblighi che richiedono ai fornitori di sistemi di IA generativa di garantire che gli output siano marcati in formato leggibile dalle macchine e rilevabili come artificialmente generati. Il lavoro di questo gruppo ha prodotto la prima sezione della bozza pubblicata oggi.

La professoressa Bontcheva guida un team di ricerca di 20 persone presso la School of Computer Science e la sua ricerca si concentra sul rilevamento della disinformazione generata dall’IA, sui metodi di machine learning per il rilevamento di disinformazione, sull’analisi degli abusi online e sul rilevamento dell’hate speech, nonché sull’analisi su larga scala in tempo reale dei contenuti dei social media.

Gruppo di Lavoro 2: divulgazione di deepfake e testi generati dall’IA

Guidato dalla professoressa Anja Bechmann dell’Università di Aarhus in Danimarca, questo gruppo ha lavorato sugli obblighi di divulgazione per i deployer, producendo la seconda sezione della bozza. La professoressa Bechmann è direttrice del DATALAB - Center for Digital Social Research e la sua ricerca esamina il comportamento collettivo delle piattaforme attraverso dati di tracciamento su larga scala, con particolare attenzione alle sfide alla democrazia come disinformazione e deepfake.

Il vice-presidente di questo gruppo è Giovanni De Gregorio, titolare della cattedra PLMJ di Diritto e Tecnologia presso la Católica Global School of Law, la cui competenza si colloca all’intersezione del diritto europeo, del diritto costituzionale e della politica digitale, con focus sulla regolamentazione dell’IA.

Ciascun gruppo di lavoro ha operato con l’obiettivo di fornire leadership strategica e guida, assicurando che le discussioni rimanessero focalizzate e produttive, bilanciando rigore tecnico e praticabilità operativa.

Gli stakeholder coinvolti nel processo

La redazione del Codice coinvolge stakeholder idonei che hanno risposto a una chiamata pubblica lanciata dall’AI Office. Questo gruppo include:

  • Fornitori di specifici sistemi di IA generativa: aziende che sviluppano e forniscono tecnologie di IA generativa
  • Sviluppatori di tecniche di marcatura e rilevamento: esperti e organizzazioni specializzate nello sviluppo di soluzioni tecniche per identificare contenuti generati dall’IA
  • Associazioni di deployer di sistemi di IA generativa: organizzazioni che rappresentano gli utilizzatori di questi sistemi
  • Organizzazioni della società civile: gruppi che rappresentano gli interessi dei cittadini e la tutela dei diritti fondamentali
  • Esperti accademici: ricercatori e studiosi con competenze in IA, diritto, etica e scienze sociali
  • Organizzazioni specializzate con competenza in trasparenza e piattaforme online di grandi dimensioni: entità che hanno esperienza nella gestione della trasparenza e delle piattaforme digitali

Nel suo ruolo di facilitatore, l’AI Office ha anche invitato osservatori internazionali ed europei a partecipare alla redazione del Codice di Pratica. Queste organizzazioni non hanno soddisfatto i criteri di idoneità della chiamata, ma possono comunque contribuire con competenze preziose e presentare input scritti. Tutti i partecipanti e gli osservatori saranno invitati a prendere parte a sessioni plenarie, riunioni dei gruppi di lavoro e workshop tematici dedicati alla discussione degli aspetti tecnici del Codice.

Il calendario: dalla prima bozza al codice finale

La pubblicazione della prima bozza oggi, 17 dicembre 2025, segna una tappa fondamentale in un percorso articolato che porterà all’adozione definitiva del Codice. Il cronoprogramma prevede:

  • 5 novembre 2025: Kick-off plenary - Lancio del processo di sviluppo
  • 17-18 novembre 2025: Prime riunioni dei gruppi di lavoro
  • 17 dicembre 2025: Pubblicazione della prima bozza (OGGI)
  • 23 gennaio 2026: Scadenza per la raccolta di feedback sulla prima bozza
  • Metà marzo 2026: Pubblicazione prevista della seconda bozza
  • Giugno 2026: Finalizzazione e approvazione del Codice di Pratica
  • 2 agosto 2026: Entrata in vigore degli obblighi di marcatura per i contenuti generati dall’IA

Secondo il cronoprogramma comunicato dalla Commissione Europea, la pubblicazione della prima bozza apre una fase di consultazione fino al 23 gennaio 2026, seguita da una seconda bozza prevista entro metà marzo 2026 e dalla finalizzazione del Codice entro giugno 2026, con applicazione degli obblighi di trasparenza a partire dal 2 agosto 2026. Il periodo di sei mesi e mezzo tra la finalizzazione del Codice e la sua applicazione obbligatoria è stato calibrato per permettere alle organizzazioni di:

  • Studiare in dettaglio i requisiti tecnici
  • Implementare le soluzioni tecnologiche necessarie
  • Formare il personale
  • Aggiornare i processi operativi
  • Testare i sistemi di marcatura e rilevamento
  • Adeguare le politiche di divulgazione

Durante il processo di sviluppo, sono stati presi in considerazione diversi input fondamentali:

  • Il feedback dalla consultazione multi-stakeholder sui requisiti di trasparenza per determinati sistemi di IA (settembre-ottobre 2025)
  • Studi di esperti commissionati dall’AI Office
  • Contributi degli stakeholder idonei che partecipano alla redazione del Codice di Pratica
  • Approcci internazionali e standard tecnici emergenti

Linee guida parallele della Commissione

In parallelo allo sviluppo del Codice di Pratica, la Commissione preparerà linee guida per chiarire la portata degli obblighi legali e affrontare aspetti non coperti dal Codice. Questo approccio duplice garantisce che sia gli aspetti volontari (attraverso il Codice di Pratica) sia quelli obbligatori (attraverso le linee guida ufficiali) siano adeguatamente affrontati, fornendo un quadro completo per la conformità.

Le implicazioni pratiche della prima bozza

La pubblicazione della prima bozza oggi fornisce per la prima volta indicazioni concrete su come fornitori e deployer dovranno operare. Le implicazioni pratiche si articolano su più livelli:

Per i fornitori di sistemi di IA generativa

La prima sezione della bozza pubblicata oggi richiede ai fornitori di implementare soluzioni tecniche avanzate. Questo comporta:

Implementazione di sistemi di marcatura:

  • Sviluppo o adozione di tecnologie di watermarking digitale resistenti alla manipolazione
  • Integrazione di metadati strutturati che accompagnino ogni output generato
  • Implementazione di identificatori crittograficamente sicuri
  • Creazione di sistemi di logging che documentino la generazione di contenuti

Garanzia di interoperabilità:

  • Adozione di standard aperti per la marcatura
  • Compatibilità con diversi formati di file e piattaforme
  • Capacità di lettura da parte di sistemi di rilevamento di terze parti
  • Documentazione tecnica completa delle soluzioni implementate

Robustezza e affidabilità:

  • Test di resistenza contro tentativi di rimozione o alterazione delle marcature
  • Monitoraggio continuo dell’efficacia dei sistemi
  • Aggiornamenti regolari per contrastare nuove tecniche di evasione
  • Mantenimento di registri di audit

Considerazioni economiche e tecniche:

  • Bilanciamento tra costi di implementazione e efficacia
  • Valutazione dello stato dell’arte tecnologico
  • Adattamento alle specificità dei diversi tipi di contenuto (audio, video, immagini, testo)
  • Scalabilità delle soluzioni

Per i deployer di contenuti generati dall’IA

La seconda sezione della bozza pubblicata oggi stabilisce obblighi chiari per chi utilizza sistemi di IA generativa in contesti professionali:

Per i deepfake:

  • Implementazione di avvisi visibili e comprensibili che indichino la natura sintetica del contenuto
  • Posizionamento strategico delle etichette per garantire la visibilità
  • Linguaggio chiaro e non ambiguo nelle divulgazioni
  • Persistenza delle etichette quando il contenuto viene condiviso o riutilizzato

Per le pubblicazioni testuali su questioni di interesse pubblico:

  • Identificazione chiara dei contenuti generati o manipolati dall’IA
  • Divulgazione trasparente dell’uso dell’IA nel processo di creazione
  • Differenziazione tra contenuti interamente generati e contenuti assistiti dall’IA
  • Documentazione interna dei processi

Bilanciamento con esigenze creative:

  • Rispetto delle esenzioni per contenuti artistici, satirici o di finzione
  • Modalità di divulgazione che non ostacolino il godimento dell’opera
  • Flessibilità nel formato di presentazione delle etichette
  • Considerazione del contesto editoriale

Processi organizzativi:

  • Formazione del personale sugli obblighi di divulgazione
  • Creazione di workflow per verificare e documentare l’uso dell’IA
  • Politiche interne chiare su quando e come divulgare
  • Sistemi di controllo qualità per garantire la conformità

Per le piattaforme online

Le piattaforme online di grandi dimensioni, in particolare quelle classificate come Very Large Online Platforms (VLOP), saranno verosimilmente chiamate a integrare le misure di marcatura ed etichettatura dei contenuti generati dall’IA nei propri sistemi di rilevamento, moderazione e trasparenza, in coordinamento con gli obblighi già previsti dal Digital Services Act.

Le sfide e le prospettive future

Sfide Tecniche

L’implementazione efficace del Codice di Pratica dovrà affrontare diverse sfide tecniche:

  1. Interoperabilità: garantire che i sistemi di marcatura funzionino attraverso diverse piattaforme e tecnologie
  2. Evasione: prevenire la rimozione o l’alterazione delle marcature da parte di attori malintenzionati
  3. Evoluzione tecnologica: mantenere il passo con il rapido sviluppo delle tecnologie di IA generativa
  4. Rilevamento sofisticato: sviluppare tecniche in grado di identificare deepfake sempre più realistici

Bilanciamento di interessi

Il Codice dovrà bilanciare diversi interessi:

  • Protezione dei cittadini dalla disinformazione e dall’inganno
  • Promozione dell’innovazione nell’IA
  • Tutela della libertà di espressione e creatività artistica
  • Protezione dei dati personali e della privacy

Coordinamento internazionale

Mentre l’UE guida con questa iniziativa, la natura globale dell’IA richiederà coordinamento internazionale. Il Codice di Pratica potrebbe servire da modello per altre giurisdizioni, ma sarà necessaria cooperazione transnazionale per affrontare efficacemente i contenuti che circolano oltre i confini.

Applicazione e conformità

L’efficacia del Codice dipenderà da:

  • Meccanismi di applicazione chiari a livello nazionale
  • Risorse adeguate per le autorità di controllo
  • Cooperazione tra Stati membri
  • Sanzioni proporzionate ma dissuasive per la non conformità (l’AI Act prevede multe fino a 35 milioni di euro o il 7% del fatturato globale annuo)

Il contesto più ampio: AI Act e strategia digitale dell’UE

Questa iniziativa si inserisce in un contesto più ampio di regolamentazione dell’IA a livello europeo. Nel quadro più ampio della strategia europea sull’intelligenza artificiale, la Commissione ha inoltre avviato o annunciato iniziative complementari, tra cui:

  • AI Pact: un’iniziativa volontaria che aiuta le parti interessate a prepararsi alla conformità
  • Codice di Pratica per l’IA per Scopi Generali: che affronta modelli di IA di grandi dimensioni
  • Sandbox normativi: ambienti di test che consentono alle aziende di sviluppare e testare modelli di IA per scopi generali prima del rilascio pubblico
  • Apply AI Alliance: un forum di coordinamento per le parti interessate dell’IA e i responsabili politici
  • AI Observatory: per monitorare le tendenze dell’IA e valutare l’impatto dell’IA in settori specifici

Nel novembre 2025, la Commissione Europea ha inoltre presentato un pacchetto di semplificazione normativa in ambito digitale, volto a facilitare l’attuazione pratica dell’AI Act e di altri strumenti del quadro regolatorio europeo.

Conclusioni: un passo storico verso la trasparenza dell’IA

La pubblicazione della prima bozza del Codice di Pratica oggi, 17 dicembre 2025, rappresenta un momento spartiacque nella regolamentazione globale dell’intelligenza artificiale. Per la prima volta, l’Unione Europea non si limita a stabilire principi generali, ma offre un quadro operativo dettagliato che traduce gli obblighi legali in azioni concrete e tecnicamente realizzabili.

Il significato della prima bozza

Questo documento, frutto di oltre un mese di intenso lavoro collaborativo tra esperti indipendenti, industria, società civile e mondo accademico, dimostra che è possibile costruire regole per l’IA attraverso un processo inclusivo e tecnicamente informato. La struttura bipartita del Codice - che separa chiaramente gli obblighi dei fornitori da quelli dei deployer - riflette una comprensione matura della catena del valore dell’IA e delle diverse responsabilità lungo questa catena.

I prossimi due mesi decisivi

Il periodo di consultazione che si apre oggi fino al 23 gennaio 2026 sarà cruciale. Gli stakeholder avranno l’opportunità di:

  • Testare la praticabilità tecnica delle soluzioni proposte
  • Identificare potenziali lacune o ambiguità
  • Proporre miglioramenti basati sull’esperienza operativa
  • Contribuire all’affinamento del linguaggio tecnico e normativo

La qualità dei feedback ricevuti determinerà la robustezza della seconda bozza prevista per marzo 2026 e, in ultima analisi, l’efficacia del Codice finale.

Una leadership globale

L’Europa, con questa iniziativa, sta definendo gli standard globali per la trasparenza dell’IA. Il Codice di Pratica, una volta finalizzato a giugno 2026, diventerà probabilmente il riferimento per altre giurisdizioni che affrontano sfide simili. La sua natura volontaria, ma con forti incentivi alla conformità, rappresenta un modello innovativo di regolamentazione: abbastanza flessibile da adattarsi all’evoluzione tecnologica, abbastanza rigoroso da garantire protezione effettiva.

Le sfide che rimangono

Nonostante l’importante progresso rappresentato dalla pubblicazione odierna, rimangono sfide significative:

Sul piano tecnico:

  • Garantire che i sistemi di marcatura resistano agli attacchi di evasione
  • Sviluppare soluzioni che funzionino efficacemente su scala globale
  • Mantenere l’interoperabilità in un ecosistema tecnologico frammentato
  • Adattarsi costantemente all’evoluzione delle capacità generative

Sul piano operativo:

  • Bilanciare costi di implementazione e benefici per la società
  • Gestire la transizione per aziende di diverse dimensioni
  • Coordinare l’applicazione tra 27 Stati membri
  • Monitorare l’efficacia delle misure adottate

Sul piano culturale:

  • Educare il pubblico sul significato delle etichette
  • Costruire fiducia nei sistemi di marcatura
  • Promuovere una cultura di trasparenza nell’ecosistema IA
  • Bilanciare innovazione e responsabilità

Verso il 2 agosto 2026

Nei prossimi otto mesi, fino all’entrata in vigore delle regole nell’agosto 2026, l’ecosistema europeo dell’IA vivrà una trasformazione profonda. Fornitori e deployer dovranno non solo implementare soluzioni tecniche, ma ripensare i loro processi, formare il personale e costruire una nuova cultura della trasparenza.

La prima bozza pubblicata oggi fornisce la roadmap per questo viaggio. Non è un documento perfetto - e non deve esserlo in questa fase. È piuttosto una base solida su cui costruire, attraverso il dialogo e il perfezionamento iterativo, il quadro normativo che guiderà l’Europa e, probabilmente, il mondo verso un’IA più trasparente e affidabile.

Un modello per il futuro

Il processo che ha portato alla pubblicazione odierna - inclusivo, tecnicamente informato, aperto alla partecipazione di tutti gli stakeholder rilevanti - rappresenta esso stesso un’innovazione nel modo in cui regolamentare tecnologie complesse e in rapida evoluzione. Questo approccio, che bilancia la necessità di certezza normativa con la flessibilità richiesta dall’innovazione tecnologica, potrebbe diventare il modello per future regolamentazioni in ambito digitale.

L’Unione Europea, con la pubblicazione della prima bozza del Codice di Pratica oggi, dimostra ancora una volta la sua determinazione a costruire un’economia digitale che sia al contempo innovativa e rispettosa dei diritti fondamentali. Il cammino verso la piena implementazione è ancora lungo, ma la direzione è chiara: un’intelligenza artificiale che serve l’umanità, con trasparenza, responsabilità e fiducia al centro del suo sviluppo.

Il mondo osserva. E la risposta che l’Europa darà nei prossimi mesi, attraverso il perfezionamento di questo Codice e la sua efficace implementazione, stabilirà gli standard per la governance globale dell’IA negli anni a venire.


Fonti:


Hashtag correlati

#AIAct #IntelligenzaArtificiale #Deepfake #TrasparenzaAI #RegolamentoUE #ContenutoGeneratoIA #MarcaturaAI #EtichettaturaAI #AIOffice #CommissioneEuropea #AIGenerativa #TrasparenzaDigitale #PoliticheDigitali #InnovazioneResponsabile #GovernoIA #SicurezzaDigitale #DisinformazioneAI #EuropaDigitale