Il 10 marzo 2026, il Parlamento europeo ha approvato in seduta plenaria a Strasburgo la Risoluzione P10_TA(2026)0066 sul diritto d’autore e l’intelligenza artificiale generativa — opportunità e sfide. La procedura era stata avviata nel 2025 (2025/2058(INI)) e il documento finale è il frutto del lavoro della Commissione giuridica, con il relatore Axel Voss. Si tratta della prima presa di posizione formale del nuovo Parlamento europeo su uno dei nodi giuridici più complessi dell’attuale stagione regolatoria dell’Unione: il rapporto tra le opere dell’ingegno protette dal diritto d’autore e i processi di addestramento dei sistemi di IA generativa.

La Risoluzione non introduce nuove regole vincolanti, ma chiarisce con rara precisione tre punti di frizione tra diritto d’autore e IA generativa: il fallimento operativo del sistema di opt-out della Direttiva DSM, l’estensione degli obblighi di trasparenza oltre l’addestramento fino all’inferenza e alla RAG, e la necessità di applicare il diritto dell’Unione ai fornitori di IA che operano nel mercato europeo indipendentemente dal luogo di addestramento dei modelli. Sono questi i tre assi su cui si regge l’analisi che segue.

Il contesto: un documento atteso e necessario

La Risoluzione nasce in un momento di massima pressione regolatoria sull’IA. L’AI Act (Regolamento UE 2024/1689) è entrato in vigore ma non risponde alle questioni specifiche di proprietà intellettuale poste dall’addestramento dei modelli. Il Codice di buone pratiche per l’IA per finalità generali (GPAI Code of Practice), pubblicato dalla Commissione europea il 10 luglio 2025 e in vigore dal 2 agosto 2025, affronta il tema nel suo capitolo dedicato al diritto d’autore, ma ha natura esclusivamente volontaria — e non tutti i fornitori di IA lo hanno sottoscritto.

È in questo contesto che il Parlamento europeo interviene, individuando tre questioni giuridiche fondamentali ancora irrisolte (considerando M): la liceità dell’utilizzo di opereprotette nei dataset di addestramento; lo status giuridico dei contenuti generati dall’IA; le condizioni per garantire trasparenza, consenso ed equa remunerazione dei creatori.

Tre domande centrali. Nessuna risposta vincolante nel testo della Risoluzione.

La Direttiva DSM e il fallimento strutturale dell’opt-out

Il primo nodo critico riguarda la Direttiva sul diritto d’autore nel mercato unico digitale(2019/790), in particolare l’articolo 4, che introduce un’eccezione per l’estrazione di testo e dati (TDM — Text and Data Mining) a fini commerciali, accompagnata da un meccanismo di opt-out: i titolari dei diritti possono riservare espressamente i propri contenuti
escludendoli dall’utilizzo per attività di TDM.

La Risoluzione riconosce apertamente che questo sistema non funziona. I meccanismi di opt-out esistenti sono spesso poco pratici, non coprono tutte le azioni rilevanti connesse all’estrazione di testo e dati, e mancano della trasparenza necessaria per un’applicazione efficace (considerando K). La norma del 2019, concepita per un contesto digitale pre-generativo, si rivela strutturalmente inadeguata quando applicata all’addestramento massivo di modelli linguistici di grandi dimensioni.

Questo è, a ben vedere, il riconoscimento implicito più importante dell’intero documento: la Direttiva DSM non è semplicemente applicata male — è strutturalmente inadeguata per l’IA generativa. L’eccezione TDM dell’art. 4 fu pensata per attività di ricerca e analisi su dataset circoscritti; il suo trasferimento al ciclo di addestramento dei modelli generativi, che ingesta miliardi di parametri da fonti eterogenee e globali, la rende uno strumento spuntato. Non è una questione di attuazione: è una questione di disegno normativo.

La soluzione proposta — strumenti standardizzati leggibili meccanicamente, gestiti e catalogati dall’EUIPO (considerando X) — è concettualmente corretta, ma resta sul piano degli auspici: la Risoluzione non è un atto legislativo e non introduce obblighi giuridici vincolanti. La palla torna alla Commissione.

Trasparenza estesa: dall’addestramento all’inferenza e alla RAG

Uno dei passaggi più rilevanti — e meno commentati — sotto il profilo tecnico-giuridico riguarda l’estensione degli obblighi di trasparenza. Il considerando Y chiarisce che l’obbligo di rendere trasparenti i contenuti protetti da diritto d’autore non si limita alla fase di addestramento dei modelli, ma si estende — mutatis mutandis — a qualsiasi utilizzo successivo, incluso a fini di inferenza e di Retrieval-Augmented Generation (RAG).

Si tratta di un’affermazione di portata notevole, che merita di essere esplicitata nella sua piena implicazione. L’inferenza e la RAG avvengono in modo continuo e in tempo reale: ogni risposta generata da un sistema di IA che attinge a contenuti di terzi potrebbe rientrare nell’ambito di applicazione degli obblighi di trasparenza. La Risoluzione precisa che i crawler devono identificarsi presso gli operatori web e che i fornitori di IA devono conservare registrazioni dettagliate delle attività di acquisizione automatizzata dei dati. Introduce inoltre una presunzione operativa: i contenuti si considerano sottoposti ad acquisizione automatizzata di dati se i sistemi di IA gestiscono le richieste
degli utenti. E stabilisce un principio di grande rilievo sistematico: la mera informazione sui contenuti di terzi utilizzati dai provider di IA non costituisce segreto commerciale ai sensi del diritto dell’Unione (considerando Y).

Se questa impostazione fosse tradotta in norme vincolanti, l’obbligo di trasparenza non riguarderebbe più soltanto il dataset di addestramento — già difficile da ricostruire ex post — ma anche l’architettura informativa dei sistemi che integrano retrieval esterno, aprendo questioni tecniche e giuridiche completamente nuove: chi risponde della trasparenza nella catena provider-deployer? Con quale granularità deve essere tenuto il log? Quali diritti derivano in capo al titolare che riconosce la propria opera in un output RAG? Sono domande che la Risoluzione pone senza rispondere, ma che segnano il perimetro del prossimo intervento normativo.

Applicazione extraterritoriale: il mercato UE come leva

Il considerando P affronta un problema strutturale delle normative sul diritto d’autore: la loro applicazione è territoriale, mentre l’addestramento dei modelli di IA avviene in giurisdizioni spesso diverse da quelle in cui i contenuti sono stati creati o in cui i prodotti vengono commercializzati.

La Risoluzione propone un principio di applicazione universale: le norme dell’UE in materia di diritto d’autore devono applicarsi a tutti i fornitori di IA che operano nel mercato europeo, indipendentemente dal luogo di stabilimento e dalla giurisdizione in cui sono state eseguite le azioni rilevanti per il diritto d’autore. La stessa logica si estende ai deployer — non solo ai provider dei modelli. Un principio coerente con l’approccio già adottato dal GDPR e dall’AI Act, ma che — ancora una volta — la Risoluzione enuncia senza dotarlo di un meccanismo sanzionatorio specifico.

È opportuno ricordare che la stipula di nuovi accordi di licenza non può essere interpretata come una regolarizzazione retroattiva di usi non autorizzati pregressi (considerando P). Un chiarimento importante in un contesto in cui alcuni provider stanno concludendo accordi commerciali con editori e titolari di diritti che rischiano di essere letti — erroneamente — come sanatorie.

Il Codice di buone pratiche GPAI: architettura normativa sull’autodisciplina

La Risoluzione riconosce esplicitamente il limite più vistoso del sistema attuale: il Codice di buone pratiche per l’IA per finalità generali ha carattere esclusivamente volontario e non tutti i fornitori lo hanno sottoscritto, in particolare il suo capitolo dedicato al diritto d’autore (considerando R).

Questo genera un cortocircuito con l’AI Act: l’art. 53 del Regolamento prevede che i fornitori di modelli GPAI rispettino la normativa sul diritto d’autore e pubblichino una sintesi dei contenuti utilizzati per l’addestramento, ma rinvia in parte al Codice di buone pratiche come strumento di attuazione. Se il Codice rimane volontario e parzialmente disapplicato, l’effettività dell’AI Act su questo punto resta compromessa.

Un’architettura normativa che dipende dall’autodisciplina dei soggetti regolati — in un settore che ha già dimostrato, come riconosce lo stesso considerando L, ampie tendenze alla violazione sistematica del diritto d’autore attraverso raccolta non autorizzata, mancato rispetto delle riserve di diritti e uso di fonti usurpative — non offre garanzie adeguate. È un problema di design istituzionale, non di buona volontà dei provider.

La tensione irrisolta: competitività o diritti fondamentali?

La Risoluzione tenta di tenere insieme due obiettivi che nella pratica entrano spesso in frizione. Da un lato, il piano d’azione “AI Continent” e la Bussola per la competitività dell’UE (COM(2025)0030) spingono verso la rimozione degli ostacoli allo sviluppo dell’IA. Dall’altro, il settore culturale e creativo europeo — che rappresenta circa il 6,9% del PIL dell’UE e impiega circa 8 milioni di persone (considerando C) — richiede tutele effettive.

Il Parlamento tenta di riconciliare questi obiettivi rilevando che la competitività nell’IA generativa richiede accesso a contenuti di alta qualità, il che a sua volta presuppone un settore creativo equamente retribuito (considerando B). È un’argomentazione condivisibile nella sua logica, ma che rischia di rimanere astratta in assenza di norme vincolanti sulla remunerazione dei creatori i cui contenuti vengono utilizzati
nell’addestramento. La competitività e la tutela dei diritti fondamentali non si escludono a vicenda, ma non si conciliano nemmeno da soli: richiedono scelte normative esplicite.

La giurisprudenza in arrivo: il rischio del diritto giurisprudenziale

Il considerando T segnala un elemento che merita attenzione strategica: la giurisprudenza sul tema è ancora scarsa, ma si prevede nel prossimo futuro un numero significativo di decisioni giudiziarie, a seguito delle azioni legali avviate da vari titolari dei diritti nell’UE e nel resto del mondo nei confronti di alcuni fornitori di IA.

È una previsione realistica. Ma nasconde un rischio che la Risoluzione non esplicita: in assenza di un intervento legislativo mirato e tempestivo, il diritto d’autore nell’ecosistema dell’IA generativa rischia di essere definito più dalla giurisprudenza e dai contenziosi internazionali che da una scelta normativa consapevole dell’Unione. Un diritto costruito caso per caso, con esiti incerti, frammentati per giurisdizione e potenzialmente incoerenti con i principi enunciati nella Risoluzione stessa.

Osservazioni conclusive

La Risoluzione P10_TA(2026)0066 è un documento politicamente e giuridicamente rilevante. Identifica con precisione i nodi critici, li analizza con rigore e formula raccomandazioni chiare alla Commissione. La sua forza analitica è reale: in particolare sul fallimento strutturale dell’opt-out DSM, sull’estensione della trasparenza fino all’inferenza e alla RAG, e sull’inadeguatezza di un sistema fondato sull’autodisciplina volontaria dei provider.

Ma rimane una Risoluzione: un atto non legislativo, privo di efficacia vincolante diretta. Il vero banco di prova sarà la risposta della Commissione. Le questioni sollevate — dalla riformulazione del meccanismo di opt-out alla disciplina della trasparenza per inferenza e RAG, dalla remunerazione equa dei creatori all’applicazione extraterritoriale delle norme UE — richiedono interventi normativi specifici e vincolanti.

In assenza di un intervento legislativo mirato, il rischio concreto è che il diritto d’autore nell’ecosistema dell’IA generativa venga definito più dalla giurisprudenza e dai contenziosi internazionali che da una scelta normativa consapevole dell’Unione. Il diritto d’autore nell’era dell’IA generativa è un diritto fondamentale sotto pressione: la Risoluzione lo riconosce con chiarezza. Ora serve che le istituzioni lo tutelino con strumenti all’altezza della sfida.


Fonti primarie: