Nelle nostre precedenti analisi abbiamo esaminato gli obblighi dei deployer e le circostanze in cui un’organizzazione può diventare un provider involontario di AI agents ai sensi dell’AI Act. Quei due articoli affrontavano la domanda: chi sei nella catena del valore dell’AI Act. Questo articolo affronta una questione diversa ma altrettanto critica: quali regole governano i dati che gli AI agents trattano.
Gli AI agents non si limitano a generare testo. Accedono a email, leggono documenti, interrogano banche dati, interagiscono con servizi esterni, prendono decisioni ed eseguono azioni — spesso in catene multi-step con un intervento umano limitato. Ciascuna di queste operazioni che coinvolge dati personali costituisce un trattamento ai sensi dell’art. 4, punto 2, del Regolamento (UE) 2016/679 (GDPR).
Il quadro normativo applicabile a tale trattamento non è una questione riservata al solo AI Act. Il GDPR resta pienamente applicabile, e i suoi requisiti — base giuridica, trasparenza, diritti dell’interessato, restrizioni sulle decisioni automatizzate — non cedono di fronte all’AI Act ma operano parallelamente. Per le organizzazioni che impiegano AI agents, la conformità richiede un’analisi integrata di entrambi i framework.
Tre scenari per inquadrare l’analisi
Prima di esaminare le disposizioni normative in dettaglio, è utile considerare tre scenari concreti che illustrano come gli AI agents interagiscono con i dati personali nella pratica. Questi scenari serviranno come punti di riferimento lungo tutta l’analisi.
Scenario A — AI agent nel customer service
Un’azienda impiega un AI agent come primo punto di contatto per l’assistenza clienti. L’agent accede al CRM aziendale, recupera lo storico ordini del cliente, i dettagli dell’account e le interazioni precedenti, e propone soluzioni — che possono includere l’emissione di rimborsi, la modifica di ordini o la programmazione di richiamata. In alcune configurazioni, l’agent esegue queste azioni autonomamente.
I dati personali trattati includono: nome, email, numero di telefono, storico acquisti, riferimenti di pagamento e il contenuto delle comunicazioni del cliente. Se il cliente descrive una condizione di salute, una disabilità o una difficoltà finanziaria, l’agent può anche entrare in contatto con categorie particolari di dati.
Scenario B — AI agent nel reclutamento
Un’azienda integra un AI agent nel proprio processo di reclutamento. L’agent riceve le candidature, analizza i CV, valuta i candidati rispetto a criteri predefiniti e produce una lista ristretta ordinata per punteggio. I selezionatori umani esaminano la lista ristretta, ma lo screening iniziale — che determina chi viene escluso — è eseguito interamente dall’agent.
Questo scenario ricade direttamente nell’ambito dell’Allegato III dell’AI Act: i sistemi di IA destinati ad essere utilizzati per il reclutamento o la selezione di persone fisiche sono classificati come ad alto rischio. Al contempo, lo screening automatizzato produce effetti significativi per i candidati — la loro candidatura viene accettata o respinta sulla base della valutazione dell’agent.
Scenario C — AI agent nei servizi professionali
Un professionista — avvocato, consulente o commercialista — utilizza un AI agent per gestire appuntamenti, analizzare la corrispondenza con i clienti e preparare risposte preliminari. L’agent accede alla casella di posta elettronica e al calendario del professionista, legge i messaggi in arrivo, estrae informazioni rilevanti e prepara bozze di risposta.
Il punto critico è che i dati personali trattati appartengono a terzi — clienti, controparti, colleghi — che non hanno alcun rapporto con il fornitore dell’AI agent e non sono stati informati che i loro dati vengono trattati da un sistema di intelligenza artificiale.
Chi è il titolare del trattamento?
La prima questione operativa è: quando un AI agent tratta dati personali, chi assume le responsabilità del titolare del trattamento ai sensi dell’art. 4, punto 7, GDPR?
La risposta dipende da chi determina le finalità e i mezzi del trattamento. Nella maggior parte degli scenari di impiego, l’organizzazione che utilizza l’AI agent — il soggetto che decide perché e come l’agent opera — è il titolare del trattamento. Il fornitore dell’agent agisce tipicamente come responsabile del trattamento ai sensi dell’art. 28, trattando i dati per conto e sotto le istruzioni dell’organizzazione che lo impiega.
Questa qualificazione è relativamente lineare nello Scenario A: l’azienda decide di impiegare l’agent nel customer service, ne definisce l’ambito d’azione, determina a quali dati può accedere e quali azioni può compiere. L’azienda è il titolare; il fornitore dell’agent è il responsabile.
L’analisi diventa più complessa quando l’agent esercita un grado significativo di autonomia. Se un agent determina autonomamente a quali dati accedere, quali fonti interrogare o quali azioni intraprendere — oltre le istruzioni previste dall’organizzazione — ci si deve domandare se il fornitore dell’agent, o il sistema stesso, stia effettivamente co-determinando le finalità e i mezzi del trattamento. In tali casi, l’organizzazione deve assicurarsi che gli accordi contrattuali e tecnici con il fornitore definiscano chiaramente i confini del trattamento — e che tali confini siano effettivamente applicabili.
Le Linee guida EDPB 07/2020 sui concetti di titolare e responsabile del trattamento restano il quadro di riferimento per questa analisi. Esse sottolineano che la determinazione dei ruoli deve basarsi sulle circostanze di fatto del trattamento, non semplicemente sulla designazione contrattuale.
Nello Scenario C, si aggiunge un ulteriore livello di complessità: il professionista è titolare del trattamento dei dati dei propri clienti, ma l’introduzione di un AI agent che accede a tali dati e li tratta può richiedere l’aggiornamento degli accordi sul trattamento, delle informative fornite ai clienti e — a seconda della natura dell’attività professionale — il rispetto di obblighi di riservatezza settoriali.
Quale base giuridica per il trattamento?
L’art. 6, paragrafo 1, GDPR richiede che ogni operazione di trattamento sia fondata su una delle sei basi giuridiche previste. Per gli AI agents, tre sono particolarmente rilevanti.
Consenso — Art. 6(1)(a)
Il consenso deve essere libero, specifico, informato e inequivocabile (art. 4, punto 11). Nel contesto degli AI agents, il consenso è problematico per diverse ragioni.
Un AI agent che opera in un flusso di lavoro multi-step può trattare dati per finalità che emergono durante la catena di esecuzione — finalità che non erano prevedibili al momento in cui il consenso è stato richiesto. Il requisito di specificità è difficile da soddisfare quando le azioni dell’agent sono parzialmente autonome. Inoltre, nello Scenario B (reclutamento), il consenso del candidato al trattamento del proprio CV non può essere considerato liberamente prestato se il rifiuto impedirebbe di fatto che la candidatura venga presa in considerazione (Considerando 43; Linee guida EDPB 05/2020).
Il consenso resta appropriato in contesti limitati e ben definiti — ad esempio, quando un cliente accetta esplicitamente di interagire con un AI agent per una finalità specifica. Ma è raramente una base giuridica generale praticabile per il trattamento effettuato mediante AI agents.
Esecuzione contrattuale — Art. 6(1)(b)
Questa base è applicabile quando il trattamento è necessario per l’esecuzione di un contratto di cui l’interessato è parte. Nello Scenario A, un agent di customer service che recupera le informazioni sull’ordine ed elabora un reso sta eseguendo il contratto tra l’azienda e il cliente. Il trattamento è necessario a tale finalità.
Tuttavia, il requisito di necessità deve essere interpretato restrittivamente (Linee guida EDPB 2/2019). Non ogni operazione compiuta dall’agent è necessaria per il contratto: se l’agent utilizza i dati del cliente per addestrare un modello, per migliorare le proprie prestazioni o per alimentare una pipeline di analytics, si tratta di finalità distinte che richiedono una base giuridica autonoma.
Legittimo interesse — Art. 6(1)(f)
In molti impieghi business-to-business o organizzativi, il legittimo interesse può rappresentare una base giuridica rilevante per il trattamento tramite AI agents — ma solo previa verifica rigorosa del test a tre fasi e delle ragionevoli aspettative degli interessati coinvolti. Richiede un test a tre fasi: (i) il titolare persegue un interesse legittimo; (ii) il trattamento è necessario per il perseguimento di tale interesse; (iii) gli interessi o i diritti e le libertà fondamentali dell’interessato non prevalgono sull’interesse del titolare.
Nello Scenario C, un professionista che utilizza un AI agent per gestire la corrispondenza e preparare analisi preliminari ha un interesse legittimo all’esercizio efficiente della propria attività professionale. Il trattamento è necessario a tale finalità (il trattamento manuale di ogni email sarebbe sproporzionato). La questione chiave è il terzo elemento: i diritti dei terzi i cui dati sono trattati — clienti, controparti — prevalgono su tale interesse? La risposta dipende dalla natura dei dati, dalle ragionevoli aspettative degli interessati e dalle misure di salvaguardia adottate (crittografia, controlli di accesso, minimizzazione dei dati, limiti di conservazione).
Decisioni automatizzate e articolo 22
L’art. 22, paragrafo 1, GDPR prevede che l’interessato ha il diritto di non essere sottoposto a una decisione basata unicamente su un trattamento automatizzato — ivi inclusa la profilazione — che produca effetti giuridici che lo riguardano o che incida in modo analogo significativamente sulla sua persona.
Gli AI agents possono rientrare nell’ambito di questa disposizione quando il loro impiego sfoci in decisioni basate unicamente su trattamento automatizzato con effetti giuridici o analogamente significativi. Lo Scenario B è il caso più netto: un AI agent che esamina CV e produce una lista ristretta ordinata per punteggio può integrare l’ambito dell’art. 22 quando l’esclusione o la selezione dei candidati dipendano in concreto da un output automatizzato non sottoposto a revisione umana effettiva e sostanziale. Tale esito produce effetti significativi per i candidati.
Le condizioni per l’applicazione dell’art. 22 sono:
- La decisione è basata unicamente su un trattamento automatizzato: se un selezionatore umano esamina in modo significativo e può superare ogni singola decisione, l’art. 22 non si applica. Ma un essere umano che si limita a ratificare l’output dell’agent non costituisce una sorveglianza umana effettiva.
- La decisione produce effetti giuridici o incide in modo analogo significativamente sull’interessato: diniego di una candidatura, rifiuto di un credito, rigetto di una richiesta di risarcimento.
- Le eccezioni dell’art. 22(2) si applicano solo se la decisione è necessaria per un contratto, autorizzata dalla legge o basata sul consenso esplicito — e in ogni caso devono essere previste salvaguardie adeguate (art. 22(3)), incluso il diritto di ottenere l’intervento umano, esprimere la propria opinione e contestare la decisione.
Nello Scenario A, l’analisi dipende dall’ambito di autonomia dell’agent. Se l’agent si limita a proporre soluzioni che un operatore umano conferma, l’art. 22 non è coinvolto. Se l’agent emette autonomamente un rimborso, cancella un ordine o nega una richiesta senza un riesame umano effettivo, la disposizione si applica.
Trasparenza: due regimi sovrapposti
Quando un AI agent interagisce con persone fisiche, l’organizzazione che lo impiega deve soddisfare simultaneamente due insiemi distinti di obblighi di trasparenza.
| Obbligo | Cosa richiede | Rif. normativo | Applicabile da |
|---|---|---|---|
| Informazione sull'interazione AI | Informare la persona che sta interagendo con un sistema di IA — prima o all'inizio dell'interazione | Art. 50(1) AI Act | 2 agosto 2026 |
| Informativa — dati raccolti presso l'interessato | Fornire identità del titolare, finalità, base giuridica, destinatari, periodo di conservazione, diritti dell'interessato | Art. 13 GDPR | Già in vigore |
| Informativa — dati ottenuti da altre fonti | Come sopra, più la fonte dei dati e le categorie di dati — entro un termine ragionevole, max un mese | Art. 14 GDPR | Già in vigore |
| Informazione sulle decisioni automatizzate | Informare l'interessato dell'esistenza di decisioni automatizzate (incl. profilazione), informazioni significative sulla logica utilizzata, importanza e conseguenze previste | Art. 13(2)(f), Art. 14(2)(g) GDPR | Già in vigore |
| Etichettatura deepfake e contenuti AI | Etichettare i contenuti generati dall'IA e i deepfake, specialmente su argomenti di interesse pubblico | Art. 50(4) AI Act | 2 agosto 2026 |
Nello Scenario C, la sfida della trasparenza è particolarmente acuta. I terzi i cui dati sono trattati dall’AI agent del professionista — clienti, controparti — potrebbero dover essere informati ai sensi del GDPR che i loro dati vengono trattati da un sistema di intelligenza artificiale. Può rendersi necessario aggiornare le informative e, per i dati ottenuti indirettamente, verificare puntualmente l’applicabilità degli obblighi ex art. 14 GDPR e delle eventuali esenzioni di cui all’art. 14(5), tenendo conto degli obblighi di riservatezza settoriali.
Categorie particolari di dati e AI agents
L’art. 9, paragrafo 1, GDPR vieta il trattamento di categorie particolari di dati personali — inclusi dati relativi alla salute, dati biometrici, dati che rivelino l’origine razziale o etnica, le opinioni politiche, le convinzioni religiose, l’appartenenza sindacale e dati relativi alla vita sessuale o all’orientamento sessuale — salvo che sia applicabile una delle eccezioni dell’art. 9(2).
Gli AI agents che accedono a fonti di dati non strutturati — email, documenti, log di chat — possono inavvertitamente trattare categorie particolari di dati. Nello Scenario A, un cliente che descrive una condizione medica in una richiesta di assistenza sta fornendo dati relativi alla salute. Nello Scenario B, un CV che include una fotografia, menzioni di disabilità o riferimenti ad attività religiose o comunitarie può contenere dati protetti dall’art. 9.
L’organizzazione che impiega l’agent deve implementare misure tecniche e organizzative per minimizzare il rischio di trattamento di categorie particolari di dati attraverso AI agents, e deve disporre di una base giuridica legittima ai sensi dell’art. 9(2) se tale trattamento non può essere evitato.
Tabella operativa: obblighi GDPR per le organizzazioni che utilizzano AI agents
| # | Obbligo | Cosa comporta | Rif. GDPR | Rif. AI Act |
|---|---|---|---|---|
| 1 | Identificare e documentare la base giuridica | Determinare la base giuridica applicabile ai sensi dell'art. 6(1) per ogni categoria di trattamento effettuato dall'AI agent | Art. 6, 5(2) | — |
| 2 | Qualificare i ruoli nella catena del trattamento | Determinare chi è titolare e chi è responsabile; formalizzare in un accordo sul trattamento dei dati (art. 28) | Art. 4(7), 28 | Art. 25, 26 |
| 3 | Effettuare una DPIA | Valutare l'impatto sui diritti e le libertà delle persone fisiche — obbligatoria per profilazione sistematica ed estensiva, trattamento su larga scala di categorie particolari o decisioni automatizzate con effetti giuridici | Art. 35 | Art. 27 (FRIA, ove applicabile — non equivalente alla DPIA) |
| 4 | Fornire trasparenza e informazione | Aggiornare le informative per riflettere l'uso di AI agents; comunicare l'interazione con l'IA prima o all'inizio dell'interazione | Art. 12, 13, 14 | Art. 50(1) |
| 5 | Garantire la sorveglianza umana per le decisioni automatizzate | Dove l'agent prende decisioni con effetti giuridici o analogamente significativi, garantire il diritto all'intervento umano, il diritto di esprimere la propria opinione e il diritto di contestare la decisione | Art. 22 | Art. 14, 26(2) |
| 6 | Implementare minimizzazione e controlli di accesso | Limitare l'accesso dell'agent ai dati personali strettamente necessari per il suo compito; implementare controlli di accesso basati sui ruoli e logging | Art. 5(1)(c), 25, 32 | Art. 15 |
| 7 | Gestire le categorie particolari di dati | Implementare misure per prevenire il trattamento inavvertito di dati ex art. 9; se inevitabile, assicurare un'eccezione lecita ai sensi dell'art. 9(2) | Art. 9 | — |
| 8 | Garantire i diritti dell'interessato | Garantire l'esercizio effettivo dei diritti di accesso, rettifica, cancellazione, portabilità e opposizione — anche per i dati trattati dall'agent | Art. 15–21 | — |
| 9 | Valutare i trasferimenti internazionali | Se il fornitore dell'AI agent tratta i dati fuori dall'UE/SEE, assicurare un meccanismo di trasferimento adeguato (decisione di adeguatezza, SCC, deroghe art. 49) | Art. 44–49 | — |
| 10 | Documentare e conservare i registri | Includere i trattamenti dell'AI agent nel registro dei trattamenti (art. 30); per i sistemi ad alto rischio, conservare i log per almeno sei mesi, se e nella misura in cui tali log siano sotto il controllo del deployer | Art. 30 | Art. 26(6) |
Questa tabella è concepita come strumento di orientamento pratico e non sostituisce l’analisi giuridica caso per caso.
I due framework non sono alternativi
L’AI Act regola il sistema. Il GDPR regola i dati che il sistema tratta. I due framework si sovrappongono ma non si sostituiscono: un’organizzazione può essere pienamente conforme all’AI Act — avendo classificato il proprio sistema, adempiuto agli obblighi di trasparenza, garantito la sorveglianza umana — e trovarsi comunque in violazione del GDPR se manca una base giuridica valida, se non fornisce un’informativa adeguata agli interessati o se non rispetta le restrizioni sulle decisioni automatizzate.
Per le organizzazioni che impiegano AI agents, l’esercizio di conformità è necessariamente integrato. Il punto di partenza è sempre lo stesso: comprendere a quali dati l’agent accede, perché vi accede e con quali conseguenze per le persone coinvolte. Le risposte a queste domande determinano gli obblighi applicabili in entrambi i framework.
Per il quadro analitico sui ruoli soggettivi nell’AI Act — provider, deployer e i meccanismi di riqualificazione — si rinvia al mio paper sui profili soggettivi e ai precedenti articoli di questa serie sui deployer e sul provider involontario. Per uno strumento interattivo di mappatura delle intersezioni tra i due framework, si veda il GDPR & AI Hub e il AI Act — GDPR Database.
Risorse
Hub operativi
- AI Hub — Orientamento normativo e operativo — l’AI Act in chiave giuridica: trova il tuo ruolo, classifica il tuo sistema, individua i tuoi obblighi
- AI Act Hub — Ruoli degli operatori e obblighi — mappa dei sei operatori dell’AI Act, meccanismi di trasformazione del ruolo, cascata degli obblighi
- GDPR & AI Hub — Intersezioni operative — basi giuridiche per il trattamento dei dati nei sistemi di IA, decisioni automatizzate, DPIA, profilazione
Strumenti e risorse
- AI Act — GDPR Database — database interattivo delle corrispondenze tra AI Act e GDPR
- AI Compliance Tools — strumenti per la conformità IA
- Self-Assessment Tool — autovalutazione degli obblighi AI Act
- NicFab Newsletter — aggiornamento settimanale su privacy, protezione dati, IA e cybersecurity (ogni martedì)
Approfondimenti
- AI Act: deployer, AI agents e trasparenza — la prospettiva del deployer e il quadro operativo
- AI Agents: quando il deployer diventa provider — la riqualificazione ai sensi dell’art. 25
- Video Conferencing e GDPR — un’analisi comparativa dal punto di vista della protezione dei dati
- Digital Omnibus on AI: il Parlamento riscrive le regole della Commissione
Nota conclusiva
La precisione normativa non è un esercizio accademico: è una responsabilità professionale. Gli AI agents sono strumenti potenti, ma ogni strumento che tratta dati personali opera all’interno di un quadro giuridico che esiste per proteggere diritti fondamentali. La questione non è se il GDPR si applichi agli AI agents — si applica, pienamente e senza eccezioni — ma se le organizzazioni che li impiegano abbiano svolto il lavoro necessario per garantire che sia applicato correttamente.
Questo post fa parte della serie dedicata all’implementazione dell’AI Act e alla sua intersezione con il GDPR. Per aggiornamenti in tempo reale, segui il blog e iscriviti alla NicFab Newsletter.
