NicFab Newsletter

Numero 10 | 3 marzo 2026

Privacy, Data Protection, AI e Cybersecurity


Benvenuti al numero 10 della newsletter settimanale dedicata alla privacy, alla data protection, all’intelligenza artificiale, alla cybersecurity e all’etica. Ogni martedì troverete una selezione ragionata delle notizie più rilevanti della settimana precedente, con un focus su sviluppi normativi europei, giurisprudenza, enforcement e innovazione tecnologica.


In questo numero

  • GARANTE PRIVACY ITALIA
  • EDPB - COMITATO EUROPEO PROTEZIONE DATI
  • EDPS - GARANTE EUROPEO PROTEZIONE DATI
  • COMMISSIONE EUROPEA
  • CNIL - AUTORITÀ FRANCESE
  • PARLAMENTO EUROPEO
  • SVILUPPI INTERNAZIONALI
  • INTELLIGENZA ARTIFICIALE
  • CYBERSECURITY
  • TECH & INNOVAZIONE
  • RICERCA SCIENTIFICA
  • AI Act in Pillole
  • Eventi e incontri segnalati
  • Conclusione

GARANTE PRIVACY ITALIA

Stop alla schedatura dei lavoratori Amazon: il Garante vieta trattamenti illeciti

Il Garante Privacy ha ordinato con effetto immediato ad Amazon Italia Logistica di cessare il trattamento di dati personali di oltre 1.800 lavoratori presso il centro di Passo Corese. L’istruttoria ha rivelato una raccolta sistematica di informazioni sensibili tramite una piattaforma collegata al sistema presenze, accessibile a numerosi manager e conservata fino a 10 anni dopo la cessazione del rapporto.

Tra i dati illecitamente raccolti figurano patologie specifiche (sindrome di Chron, ernia del disco), informazioni su attività sindacali e scioperi, oltre a dettagli sulla vita privata e familiare dei dipendenti. Il provvedimento evidenzia la violazione del principio di pertinenza: il datore di lavoro può trattare solo dati rilevanti per valutare l’attitudine professionale.

Per i DPO, questo caso sottolinea l’importanza di audit regolari sui sistemi HR e della formazione per manager che accedono a dati personali, garantendo che ogni trattamento rispetti i principi di liceità e minimizzazione.

Fonte


EDPB - COMITATO EUROPEO PROTEZIONE DATI

AI-generated imagery and protection of privacy: EDPB supports joint Global Privacy Assembly’s statement

L’EDPB ha aderito a una dichiarazione congiunta della Global Privacy Assembly che coinvolge 61 autorità mondiali sui rischi dell’AI generativa per immagini e video. Il documento affronta le crescenti preoccupazioni per la creazione non consensuale di contenuti che ritraggono persone reali, incluse immagini intime e diffamatorie, con particolare attenzione ai rischi per minori e gruppi vulnerabili.

La dichiarazione stabilisce principi fondamentali per le organizzazioni che sviluppano o utilizzano sistemi di AI generativa: implementazione di salvaguardie robuste, trasparenza significativa, meccanismi efficaci di protezione degli individui e misure specifiche per la tutela dei minori. Le autorità si impegnano a condividere approcci normativi e sollecitano le aziende a collaborare proattivamente con i regolatori.

Per i DPO, questo rappresenta un segnale importante sulla direzione regolatoria futura dell’AI generativa, richiedendo particolare attenzione alle valutazioni d’impatto e alle misure di protezione nei progetti che coinvolgono la generazione di contenuti.

Fonte


EDPS - GARANTE EUROPEO PROTEZIONE DATI

Joint Statement on AI-Generated Imagery and the Protection of Privacy

L’EDPS si unisce ad altre 60 autorità di protezione dei dati del Global Privacy Assembly in una dichiarazione congiunta sui rischi dell’imaging generato dall’intelligenza artificiale. L’iniziativa evidenzia le crescenti preoccupazioni per la creazione di contenuti sintetici che possono compromettere la privacy e la dignità delle persone.

La dichiarazione sottolinea come le tecnologie di AI generativa possano essere utilizzate per creare immagini realistiche senza il consenso dei soggetti rappresentati, sollevando questioni critiche sulla protezione dei dati personali. Per i DPO, questo sviluppo rappresenta una nuova frontiera di compliance da monitorare attentamente.

L’approccio coordinato delle autorità internazionali segnala l’urgenza di sviluppare framework normativi specifici per l’AI generativa, richiedendo alle organizzazioni di valutare proattivamente i rischi associati all’uso di queste tecnologie nei propri processi.

Fonte


COMMISSIONE EUROPEA

Le riforme sulla privacy dell’UE incontrano forte resistenza

Le ambiziose riforme del GDPR proposte dalla Commissione Europea nel pacchetto “digital omnibus” stanno affrontando significative opposizioni da parte dei governi nazionali. Il documento negoziale ottenuto da Politico rivela che i paesi membri contestano principalmente la modifica alla definizione di “dato personale”, una delle modifiche più controverse del pacchetto.

La proposta mirerebbe ad allineare il GDPR alla recente sentenza della Corte di Giustizia UE (SRB v EDPS), permettendo un uso più flessibile dei dati pseudonimizzati per lo sviluppo dell’AI. Questo cambiamento sposterebbe enormi quantità di dati fuori dall’ambito delle protezioni privacy, beneficiando particolarmente le aziende tecnologiche e gli sviluppatori di intelligenza artificiale.

Per i DPO, questa battaglia normativa rappresenta un momento cruciale: da un lato le pressioni per facilitare l’innovazione AI, dall’altro la necessità di mantenere solide garanzie di protezione dati. Le autorità garanti europee hanno già espresso preoccupazioni, mentre l’industria tech accoglie favorevolmente le proposte di riforma.

Fonte


CNIL - AUTORITÀ FRANCESE

Progetto PANAME: test per audit RGPD dei modelli di IA

La CNIL lancia il progetto PANAME, invitando i professionisti a partecipare ai test di un innovativo strumento di audit RGPD specificamente progettato per i modelli di intelligenza artificiale. Questa iniziativa rappresenta un passo significativo nell’evoluzione degli strumenti di compliance per le tecnologie emergenti.

Per i DPO che operano in organizzazioni che utilizzano sistemi di IA, questa opportunità offre l’accesso anticipato a metodologie di audit specializzate. La partecipazione ai test permetterà di acquisire competenze pratiche e di contribuire allo sviluppo di standard di settore.

L’iniziativa dimostra l’approccio proattivo della CNIL nel fornire strumenti concreti per la gestione della conformità nell’era dell’IA, anticipando le sfide normative future.

Fonte

Consultazione pubblica sui tool di rejeu de session

La CNIL apre una consultazione pubblica sul progetto di raccomandazione relativo agli strumenti di rejeu de session, tecnologie che ricostruiscono completamente il percorso di navigazione degli utenti registrando ogni interazione: movimenti del mouse, clic, scroll e talvolta inserimenti in form.

Questi strumenti, utilizzati per ottimizzazione UX e debugging, presentano significative implicazioni privacy per la loro capacità di tracciamento granulare. La consultazione mira ad accompagnare sia sviluppatori che utilizzatori verso la conformità RGPD.

Per i DPO, questa iniziativa fornisce l’opportunità di influenzare le linee guida future e di preparare politiche interne per l’uso responsabile di queste tecnologie sempre più diffuse nel digital marketing e nell’analisi comportamentale.

Fonte

Giornata RGPD su dati sanitari e ricerca a Parigi

La CNIL organizza una giornata formativa dedicata all’applicazione del RGPD nel settore sanitario e della ricerca, settori caratterizzati da specifiche complessità normative e operative. L’evento rappresenta un’opportunità di aggiornamento su tematiche critiche per molte organizzazioni.

Il settore sanitario richiede particolare attenzione nella gestione delle basi giuridiche, dei consensi e delle finalità di trattamento, specialmente in contesti di ricerca scientifica dove si intersecano interessi pubblici e diritti individuali.

Per i DPO operanti in ambito sanitario, università e centri di ricerca, la partecipazione offre insights pratici su casi d’uso complessi e networking con colleghi che affrontano sfide simili nella quotidiana gestione della compliance.

Fonte


PARLAMENTO EUROPEO

Digital Omnibus: Analisi delle Interconnessioni nella Legislazione Digitale UE

Il Think Tank del Parlamento Europeo ha pubblicato uno studio dettagliato sul pacchetto Digital Omnibus proposto dalla Commissione Europea nel novembre 2025. L’analisi, commissionata dalla Commissione IMCO, si concentra sull’identificazione di interconnessioni e sovrapposizioni tra i diversi atti normativi nel campo della legislazione digitale.

Lo studio distingue tra semplificazione amministrativa e ricalibrazione più sostanziale delle salvaguardie in aree critiche come dati, privacy, cybersecurity e intelligenza artificiale. Per i DPO, particolare attenzione meritano le controversie evidenziate riguardo la certezza legale, le capacità di enforcement e l’impatto sui diritti fondamentali.

Il documento fornisce inoltre una roadmap per il controllo parlamentare, elemento cruciale per comprendere l’evoluzione futura del quadro normativo digitale europeo e le sue implicazioni operative per la protezione dati.

Fonte

Sintesi Esecutiva del Digital Omnibus: Guida per il Controllo Parlamentare

Il documento “At a Glance” offre una sintesi accessibile dello studio completo sul Digital Omnibus, fornendo una panoramica immediata delle questioni più rilevanti per i legislatori europei. L’analisi evidenzia come il pacchetto proposto dalla Commissione miri a razionalizzare le regole tecnologiche attraverso l’identificazione sistematica di sovrapposizioni normative.

Per i professionisti della privacy, lo studio rappresenta una risorsa preziosa per anticipare i cambiamenti nel panorama regolamentare. Le aree di controversia identificate - certezza legale, capacità di enforcement e impatti sui diritti - sono particolarmente significative per chi opera nel campo della protezione dati.

La pubblicazione di entrambi i documenti sottolinea l’importanza strategica che il Parlamento Europeo attribuisce alla razionalizzazione della legislazione digitale, processo che potrebbe influenzare significativamente l’operatività dei DPO nei prossimi anni.

Fonte


SVILUPPI INTERNAZIONALI

Coalizione globale di regolatori contro l’AI generativa senza controlli

Una coalizione di oltre 60 autorità di protezione dati, incluse l’ICO britannico e la DPC irlandese, ha emesso un chiaro avvertimento all’industria dell’AI generativa: la capacità di creare immagini realistiche di persone non esonera dal rispetto delle normative sulla privacy. La dichiarazione congiunta sottolinea come i modelli AI integrati nei social media stiano facilitando la creazione di contenuti intimi non consensuali e materiale diffamatorio.

L’iniziativa arriva dopo le indagini formali su xAI di Musk per la generazione di immagini sessuali senza consenso tramite Grok. I regolatori enfatizzano la necessità di implementare salvaguardie fin dalla progettazione, con particolare attenzione ai rischi per minori e gruppi vulnerabili. Per i DPO, questo rappresenta un chiaro segnale: l’AI generativa deve essere valutata con gli stessi standard rigorosi applicati a qualsiasi altro trattamento di dati personali, richiedendo DPIA approfondite e misure di protezione adeguate.

Fonte


INTELLIGENZA ARTIFICIALE

Red Lines dell’EU AI Act: Tecniche Manipolative e Sfruttamento delle Vulnerabilità

L’EU AI Act stabilisce chiari divieti per i sistemi di IA che utilizzano tecniche manipolative sublimali o sfruttano vulnerabilità legate all’età, disabilità o situazioni socio-economiche. L’obiettivo è preservare l’autonomia decisionale individuale e promuovere un’IA antropocentrica e affidabile.

Per i DPO è fondamentale comprendere l’interazione tra questi divieti e le normative esistenti come GDPR e Digital Services Act. Il GDPR già regola le pratiche manipolative attraverso principi di correttezza e privacy by design, mentre il DSA vieta interfacce ingannevoli sulle piattaforme online. La Commissione Europea ha pubblicato linee guida che chiariscono come questi divieti proteggano gli individui dal diventare “meri strumenti” e tutelino i più vulnerabili dalla manipolazione.

Fonte

Scontro Anthropic-Pentagono: Rischio Supply Chain per Controversia su IA Militare

Il Pentagono ha designato Anthropic come “rischio per la catena di approvvigionamento” dopo che l’azienda si è rifiutata di rimuovere restrizioni sui propri modelli di IA per uso militare. Anthropic ha posto due “linee rosse”: niente sorveglianza di massa domestica e niente armi completamente autonome.

Trump ha ordinato a tutte le agenzie federali di cessare l’uso della tecnologia Anthropic entro sei mesi. L’azienda sostiene che la designazione sia “legalmente infondata” e crei un pericoloso precedente per le aziende che negoziano con il governo. Il conflitto evidenzia la tensione tra controllo aziendale sui sistemi di IA e esigenze di sicurezza nazionale, sollevando questioni cruciali sui limiti etici dell’IA militare.

Fonte

Trump Vieta Anthropic dal Governo Federale

Trump ha annunciato il divieto immediato dell’uso degli strumenti di IA di Anthropic da parte di tutte le agenzie federali, con un periodo di transizione di sei mesi. Il conflitto nasce dalla richiesta del Pentagono di eliminare le restrizioni sui modelli Claude per permettere “ogni uso legale” della tecnologia.

Anthropic, prima azienda di IA a collaborare con l’esercito tramite un contratto da 200 milioni di dollari, utilizza i suoi modelli Claude Gov per analisi di intelligence e pianificazione militare. Centinaia di dipendenti Google e OpenAI hanno firmato una lettera aperta di sostegno ad Anthropic. Questo scontro testa i limiti del rapporto tra Silicon Valley e il settore della difesa, ridefinendo i confini etici dell’IA militare.

Fonte

Anthropic vs Pentagono: Cosa è Realmente in Gioco

Il conflitto tra Anthropic e il Pentagono solleva una questione fondamentale: chi controlla i sistemi di IA avanzati, le aziende che li sviluppano o il governo che li vuole utilizzare? Anthropic rifiuta l’uso dei suoi modelli per sorveglianza di massa degli americani e armi completamente autonome senza controllo umano.

Il Dipartimento della Difesa già utilizza sistemi altamente automatizzati e non vieta categoricamente le armi autonome. Una direttiva del 2023 permette ai sistemi di IA di selezionare e ingaggiare obiettivi senza intervento umano, purché rispettino certi standard. Per i DPO, questo caso evidenzia l’importanza di mantenere salvaguardie etiche anche nei contratti governativi, bilanciando sicurezza nazionale e principi di responsabilità nell’IA.

Fonte

Dipendenti Google e OpenAI Supportano la Posizione di Anthropic

Oltre 300 dipendenti Google e 60 di OpenAI hanno firmato una lettera aperta per sostenere la posizione di Anthropic contro le richieste del Pentagono. I firmatari esortano i leader delle loro aziende a “mettere da parte le differenze e stare uniti” per mantenere i confini contro sorveglianza di massa e armi completamente automatizzate.

Sam Altman di OpenAI ha dichiarato che anche la sua azienda condivide le “linee rosse” di Anthropic, mentre Jeff Dean di Google ha espresso opposizione alla sorveglianza di massa per violazione del Quarto Emendamento. Questa solidarietà tra dipendenti del settore tech dimostra una crescente consapevolezza etica nell’industria dell’IA e l’importanza di mantenere principi comuni di responsabilità, anche di fronte alle pressioni governative.

Fonte


CYBERSECURITY

CISA avvisa del malware RESURGE dormiente sui dispositivi Ivanti

CISA ha rilasciato nuovi dettagli sul malware RESURGE, utilizzato negli attacchi zero-day contro i dispositivi Ivanti Connect Secure tramite la vulnerabilità CVE-2025-0282. Il malware, sfruttato dal gruppo cinese UNC5221 da dicembre 2024, presenta sofisticate tecniche di evasione che permettono di rimanere dormiente sui sistemi compromessi.

RESURGE è un impianto passivo che non comunica attivamente con il C2, ma attende indefinitamente connessioni TLS specifiche, utilizzando certificati Ivanti falsificati per l’autenticazione. Per i DPO, questo caso evidenzia l’importanza di implementare monitoraggi di rete avanzati e procedure di incident response che considerino anche minacce dormienti e persistenti.

Fonte

Data breach Canadian Tire colpisce 38 milioni di account

Canadian Tire ha subito un significativo data breach che ha compromesso 38 milioni di account clienti. I dati sottratti includono nomi, indirizzi, email, numeri di telefono e password crittografate. L’ampiezza del breach sottolinea ancora una volta l’importanza di strategie di protezione dati robuste nel settore retail.

Per i DPO, questo incidente rappresenta un caso di studio sulla gestione di breach di massa, evidenziando la necessità di piani di comunicazione efficaci e procedure di notifica alle autorità competenti. L’inclusione di password crittografate nei dati compromessi richiede particolare attenzione nell’assessment del rischio e nelle raccomandazioni agli interessati.

Fonte

Zero-day Cisco SD-WAN sfruttato dal 2023 per accesso amministrativo

Cisco ha rivelato che la vulnerabilità critica CVE-2026-20127 (CVSS 10.0) nei suoi sistemi SD-WAN è stata sfruttata dal 2023 dal gruppo UAT-8616. La flaw consente ad attaccanti non autenticati di ottenere privilegi amministrativi bypassando l’autenticazione tramite richieste crafted, compromettendo il meccanismo di peering authentication.

Il caso evidenzia come le vulnerabilità zero-day possano rimanere sfruttate per anni prima della scoperta. Per i DPO, questo sottolinea l’importanza di implementare controlli di monitoraggio continuo e audit log regolari, particolarmente per sistemi esposti su Internet. La compromissione di infrastrutture SD-WAN può avere impatti significativi sulla sicurezza dell’intera rete aziendale.

Fonte

Hacker sfruttano codice Claude nell’attacco al governo messicano

Un sofisticato attacco informatico contro il governo messicano ha visto l’utilizzo dell’AI Claude per automatizzare le fasi di compromissione. Gli aggressori hanno sfruttato l’intelligenza artificiale per scrivere exploit, creare strumenti personalizzati e automatizzare l’esfiltrazione di oltre 150GB di dati sensibili governativi.

Questo caso rappresenta una preoccupante evoluzione nelle tattiche degli attaccanti, che ora utilizzano l’AI generativa per potenziare le loro capacità offensive. Per i DPO, emerge la necessità di considerare nei risk assessment anche l’uso malevolo dell’AI, implementando controlli specifici per rilevare attività automatizzate anomale e sviluppando strategie di difesa che tengano conto di queste nuove minacce ibride.

Fonte

Data breach ManoMano: 38 milioni di utenti coinvolti

La piattaforma e-commerce ManoMano ha subito un significativo data breach che avrebbe compromesso i dati personali di 38 milioni di utenti. Le informazioni sottratte includono nomi, indirizzi email, numeri di telefono e altre informazioni personali, configurando un incident di notevole portata nel settore del commercio elettronico europeo.

L’incidente pone l’attenzione sulla vulnerabilità delle piattaforme e-commerce, che gestiscono enormi quantità di dati personali e rappresentano target privilegiati per i cybercriminali. Per i DPO operanti nel settore, questo caso evidenzia l’importanza di implementare misure di sicurezza proporzionate al volume di dati trattati e procedure di breach notification efficaci per gestire impatti su scala continentale.

Fonte


TECH & INNOVAZIONE

ClawJacked: Vulnerabilità Critica in OpenClaw

Una vulnerabilità ad alta severità, denominata ClawJacked, ha colpito OpenClaw, permettendo a siti web malevoli di prendere il controllo di agenti AI locali tramite WebSocket. L’attacco sfrutta l’assenza di rate limiting per connessioni localhost, consentendo il brute-force delle password a centinaia di tentativi al secondo.

La vulnerabilità è particolarmente insidiosa poiché non richiede installazioni aggiuntive: basta che uno sviluppatore visiti un sito compromesso per attivare l’exploit via JavaScript. Una volta autenticato, l’attaccante ottiene controllo completo dell’agente AI, accesso a configurazioni e log applicativi. OpenClaw ha rilasciato una patch in 24 ore, ma l’incidente evidenzia i rischi crescenti legati agli agenti AI con accesso privilegiato ai sistemi aziendali.

Fonte

Reddit Multata £14.5M per Violazione Dati Minori

L’ICO britannico ha inflitto a Reddit una multa di £14.47 milioni per il trattamento illecito dei dati di bambini sotto i 13 anni. La piattaforma non aveva implementato meccanismi robusti di verifica dell’età, violando la normativa che richiede il consenso parentale per questa fascia d’età.

L’autorità ha inoltre rilevato l’assenza di una DPIA specifica sui rischi legati ai dati dei minori fino a gennaio 2025. Reddit ha annunciato ricorso, sostenendo che raccogliere più informazioni private contrasterebbe con la privacy degli utenti. Questa sanzione rappresenta la seconda e più alta multa ICO per violazione del Children’s Code, segnalando un approccio sempre più severo verso la protezione dei minori online.

Fonte

Age Verification: Honeypot di Sorveglianza Esposto

Ricercatori di sicurezza hanno scoperto 2.456 file pubblicamente accessibili su server governativo USA, rivelando l’estensivo sistema di sorveglianza nascosto dietro la verifica dell’età di Persona, utilizzata da Discord. Il sistema non si limita al controllo anagrafico ma esegue 269 verifiche distinte, scansionando internet e fonti governative.

La piattaforma analizza e conserva per tre anni dati biometrici, impronte digitali del dispositivo, indirizzi IP e persino sfondi dei selfie, confrontando i volti con database di persone politicamente esposte. Questa scoperta conferma i timori sulla creazione di database centralizzati di dati sensibili, trasformando semplici controlli anagrafici in sistemi di sorveglianza di massa particolarmente vulnerabili agli attacchi informatici.

Fonte

Claude Code: Vulnerabilità Critiche nell’AI Assistant

Anthropic ha corretto multiple vulnerabilità di sicurezza in Claude Code che permettevano esecuzione di codice remoto e furto di credenziali API. I difetti sfruttavano meccanismi di configurazione come Hooks, server MCP e variabili d’ambiente quando gli sviluppatori aprivano repository non attendibili.

Le vulnerabilità includevano bypass del consenso utente (CVSS 8.7), esecuzione automatica di comandi shell all’inizializzazione e esfiltrazione di chiavi API Anthropic prima della richiesta di autorizzazione. Il semplice avvio di Claude Code in una directory malevola bastava per compromettere le credenziali e reindirizzare il traffico API verso infrastrutture controllate dagli attaccanti. Le patch sono state rilasciate tra settembre 2025 e gennaio 2026.

Fonte


RICERCA SCIENTIFICA

Selezione dei paper più rilevanti della settimana da arXiv su AI, Machine Learning e Privacy

Differential Privacy e Federated Learning

Tackling Privacy Heterogeneity in Differentially Private Federated Learning affronta una sfida critica per i DPO: i clienti hanno requisiti di privacy eterogenei, non uniformi. La ricerca propone strategie di selezione che considerano budget privacy variabili, elemento fondamentale per implementazioni FL conformi al GDPR in contesti multi-organizzazione. arXiv

JSAM: Privacy Straggler-Resilient Joint Client Selection and Incentive Mechanism Design introduce meccanismi di incentivazione che gestiscono i “privacy stragglers” - clienti con requisiti privacy elevati. Essenziale per bilanciare protezione dati e sostenibilità economica dei sistemi FL, aspetto cruciale per compliance officer nella valutazione costi-benefici privacy. arXiv

Implementazioni Pratiche Differential Privacy

DPSQL+: A Differentially Private SQL Library with a Minimum Frequency Rule integra differential privacy con regole di frequenza minima per query SQL. Particolarmente rilevante per compliance: combina garanzie teoriche DP con requisiti governance pratici, offrendo strumenti concreti per analisi dati privacy-preserving in ambienti enterprise. arXiv

Differentially Private Truncation of Unbounded Data via Public Second Moments risolve limitazioni DP su dati non limitati utilizzando momenti secondi da dataset pubblici. Amplia applicabilità pratica DP in scenari reali dove distribuzione dati non è nota a priori, cruciale per valutazioni privacy impact. arXiv

Machine Unlearning e Privacy

Easy to Learn, Yet Hard to Forget: Towards Robust Unlearning Under Bias evidenzia il fenomeno “shortcut unlearning” in modelli con bias. Critico per diritto all’oblio GDPR: dimostra come bias possano compromettere efficacia cancellazione dati, richiedendo approcci più sofisticati per garantire compliance effettiva. arXiv

Mitigating Membership Inference in Intermediate Representations propone DP-SGD layer-aware per contrastare attacchi membership inference. Importante per DPO: offre protezioni granulari contro inferenze non autorizzate in rappresentazioni intermedie, area spesso trascurata nelle valutazioni privacy. arXiv

Privacy in Sistemi Avanzati

CQSA: Byzantine-robust Clustered Quantum Secure Aggregation esplora aggregazione sicura quantistica in FL, offrendo privacy information-theoretic. Sebbene emergente, fornisce prospettive future per protezioni privacy ultra-robuste, rilevante per pianificazione strategica long-term della privacy aziendale. arXiv

TrajGPT-R: Generating Urban Mobility Trajectory sviluppa framework transformer per generazione trajectorie mobilità urbana privacy-preserving. Significativo per smart cities e GDPR: abilita analisi urbane mantenendo protezione dati personali di mobilità, caso d’uso crescente per enti pubblici. arXiv


AI ACT IN PILLOLE - Parte 10

Articolo 14 - Sorveglianza umana

Dopo aver analizzato nella parte precedente gli obblighi di trasparenza e fornitura di informazioni ai deployer previsti dall’Articolo 13, ci addentriamo ora in uno dei requisiti più innovativi e discussi del Regolamento AI Act: l’Articolo 14, dedicato alla sorveglianza umana (human oversight) dei sistemi di IA ad alto rischio.

Il principio fondamentale: l’essere umano al centro

L’Articolo 14 stabilisce che i sistemi di IA ad alto rischio devono essere progettati e sviluppati in modo tale — anche attraverso strumenti di interfaccia uomo-macchina appropriati — da poter essere efficacemente supervisionati da persone fisiche durante il periodo di utilizzo. Questo requisito traduce in norma giuridica vincolante il principio dell’approccio antropocentrico all’intelligenza artificiale: la macchina, per quanto sofisticata, non può operare senza la possibilità di un intervento umano significativo.

La sorveglianza umana ha un obiettivo preciso: prevenire o minimizzare i rischi per la salute, la sicurezza o i diritti fondamentali che possono emergere quando un sistema IA ad alto rischio viene utilizzato conformemente alla sua finalità prevista o in condizioni di uso improprio ragionevolmente prevedibile, in particolare quando tali rischi persistono nonostante l’applicazione degli altri requisiti previsti dal Regolamento.

Le misure di sorveglianza: un sistema a due livelli

Il Regolamento prevede che le misure di sorveglianza siano commisurate ai rischi, al livello di autonomia e al contesto d’uso del sistema, e possano essere garantite attraverso due tipologie di intervento, anche combinate tra loro: misure identificate e integrate nel sistema dal fornitore prima dell’immissione sul mercato, e misure identificate dal fornitore ma destinate ad essere implementate dal deployer.

Questo doppio binario riflette la consapevolezza del legislatore che la sorveglianza umana non è responsabilità esclusiva di un singolo attore, ma si distribuisce lungo tutta la catena del valore dell’IA, richiedendo una collaborazione strutturata tra chi progetta il sistema e chi lo utilizza operativamente.

Le capacità richieste al supervisore umano

L’Articolo 14, paragrafo 4, dettaglia le capacità che devono essere garantite alle persone fisiche incaricate della sorveglianza. Il sistema deve essere fornito in modo tale che il supervisore umano possa: comprendere adeguatamente le capacità e i limiti del sistema, monitorarne il funzionamento rilevando anomalie e malfunzionamenti; restare consapevole della possibile tendenza ad affidarsi automaticamente o eccessivamente agli output del sistema (il cosiddetto automation bias); interpretare correttamente gli output del sistema; decidere di non utilizzare il sistema o di ignorare, sovrascrivere o invertire il suo output; intervenire nel funzionamento del sistema o interromperlo attraverso un pulsante di arresto o una procedura analoga che consenta al sistema di fermarsi in uno stato sicuro.

Il riferimento all’automation bias è particolarmente significativo: il legislatore riconosce espressamente il rischio cognitivo che gli operatori umani tendano ad accettare passivamente le raccomandazioni dell’IA, trasformando la sorveglianza formale in un mero atto di ratifica automatica.

Il caso speciale dell’identificazione biometrica

L’Articolo 14, paragrafo 5, introduce una garanzia rafforzata per i sistemi di identificazione biometrica remota ad alto rischio: nessuna azione o decisione può essere adottata dal deployer sulla base dell’identificazione prodotta dal sistema, a meno che tale identificazione non sia stata verificata e confermata separatamente da almeno due persone fisiche dotate della competenza, formazione e autorità necessarie. Questa disposizione incarna il livello massimo di cautela del Regolamento: dove il rischio per i diritti fondamentali è più elevato, la sorveglianza umana deve essere duplice e indipendente.

Implicazioni pratiche per le organizzazioni

Per DPO, compliance officer e consulenti legali, l’Articolo 14 comporta impatti operativi significativi. Le organizzazioni che operano come deployer dovranno identificare e formare personale con competenze adeguate per svolgere il ruolo di supervisore umano, predisponendo procedure documentate per l’esercizio effettivo della sorveglianza. I fornitori, dal canto loro, dovranno progettare interfacce che rendano tecnicamente possibile un controllo umano significativo, andando oltre la mera conformità formale.

La sfida più rilevante riguarda il rapporto tra l’Articolo 14 dell’AI Act e l’Articolo 22 del GDPR sul diritto a non essere sottoposti a decisioni basate unicamente su trattamenti automatizzati. I due regolamenti convergono nell’esigere un coinvolgimento umano sostanziale, non meramente nominale, nelle decisioni che incidono significativamente sugli individui. La sorveglianza umana prevista dall’AI Act deve quindi integrarsi con le garanzie già previste dalla normativa sulla protezione dei dati, richiedendo un approccio coordinato alla compliance.

Sanzioni

Il mancato rispetto dei requisiti di sorveglianza umana può comportare sanzioni amministrative pecuniarie fino a 15 milioni di euro o, per le imprese, fino al 3% del fatturato mondiale annuo dell’esercizio precedente. La verifica dell’effettività delle misure di sorveglianza sarà un elemento centrale nelle valutazioni di conformità da parte delle autorità competenti.

Nella prossima puntata, nella Parte 11, analizzeremo l’Articolo 15, dedicato all’accuratezza, robustezza e cybersicurezza dei sistemi di IA ad alto rischio, requisiti tecnici fondamentali che completano il quadro dei requisiti obbligatori per i sistemi ad alto rischio.


Eventi e incontri segnalati

AI-generated imagery and protection of privacy: EDPB supports joint Global Privacy Assembly’s statement (pubblicato il 23 febbraio 2026)

EDPB | Info

Meeting Data Protection Working Group, Council (pubblicato il 27 febbraio 2026)

EDPB | Info

117th Plenary meeting (pubblicato il 18 marzo 2026)

EDPB | Info

Blog post: Advancing into Practice: Third Meeting of the AI Act Correspondents Network

EDPS | Info

European Union endorses Leaders’ Declaration at AI Summit in India

European Commission | Info

Executive Vice-President Virkkunen in India for summit on artificial intelligence

European Commission | Info


Conclusione

Il coordinamento globale delle autorità privacy contro l’AI generativa e l’inasprirsi dei controlli sui luoghi di lavoro delineano un quadro normativo in rapida evoluzione, dove l’enforcement tradizionale si salda alle nuove sfide dell’intelligenza artificiale. La dichiarazione congiunta di 61 autorità coordinata dal Global Privacy Assembly rappresenta un cambio di paradigma: non più approcci frammentati nazionali, ma una strategia unitaria che riconosce come l’AI-generated imagery travalichi qualsiasi confine giurisdizionale.

Il caso Amazon Italia cristallizza questa evoluzione con particolare nitidezza. La contestazione del Garante non si limita al monitoraggio tradizionale delle performance lavorative, ma investe una forma di profilazione sistemica che abbraccia patologie, attività sindacali e dinamiche familiari. Emerge così un modello di sorveglianza totale che trasforma il rapporto di lavoro in laboratorio di osservazione comportamentale. La schedatura documentata dal Garante rivela come gli algoritmi di workforce management possano generare inferenze che eccedono largamente le finalità dichiarate, creando archivi di vulnerabilità personali potenzialmente utilizzabili per decisioni automatizzate discriminatorie.

Questa dinamica si intreccia direttamente con le preoccupazioni EDPB sull’AI generativa. Entrambi i fenomeni condividono la stessa matrice: la raccolta massiva di dati personali per alimentare sistemi algoritmici che producono nuove categorie di rischio. Nel caso Amazon, i dati dei lavoratori vengono processati per ottimizzare processi produttivi; negli strumenti AI generativi, immagini e contenuti personali vengono utilizzati per training senza consenso esplicito. In entrambi i contesti, i soggetti interessati perdono controllo sui propri dati e subiscono le conseguenze di decisioni algoritmiche opache.

La resistenza dei governi nazionali alle riforme proposte dalla Commissione nel Digital Omnibus aggiunge un ulteriore livello di complessità. Mentre Bruxelles spinge per semplificazioni normative che favoriscano la competitività europea nell’AI, gli Stati membri mostrano prudenza proprio sui nodi più sensibili, come la ridefinizione di “dato personale” in relazione alla pseudonimizzazione. Questa tensione riflette un dilemma strutturale: accelerare l’innovazione europea rischia di indebolire le tutele privacy che rappresentano il valore distintivo del modello GDPR.

L’iniziativa CNIL sul progetto PANAME introduce una prospettiva pragmatica in questo scenario. L’audit GDPR specifico per modelli AI rappresenta un tentativo di operazionalizzare la compliance in un settore dove gli strumenti tradizionali di valutazione mostrano evidenti limiti. La possibilità di testare pubblicamente questi strumenti evidenzia come le autorità riconoscano la necessità di approcci innovativi per governare tecnologie in rapida evoluzione.

Il tema della sorveglianza umana, analizzato nella rubrica AI Act in Pillole con l’Articolo 14, si rivela il fil rouge che attraversa tutte le questioni emerse questa settimana. La schedatura dei lavoratori Amazon rappresenta proprio il tipo di rischio che la sorveglianza umana mira a prevenire: decisioni algoritmiche che operano senza un controllo umano effettivo, producendo profilazioni invasive e discriminatorie. Il requisito dell’Articolo 14, che impone ai deployer di poter intervenire, sovrascrivere o interrompere i sistemi di IA ad alto rischio, trova nel caso italiano una dimostrazione concreta della sua necessità. Analogamente, la dichiarazione congiunta sull’AI-generated imagery evidenzia cosa accade quando i sistemi generativi operano senza adeguata supervisione umana, producendo contenuti non consensuali che ledono diritti fondamentali.

Per DPO e professionisti della compliance, la settimana segna una fase di maggiore complessità operativa. Il caso Amazon dimostra come i workplace monitoring richiedano audit che vadano oltre la verifica della liceità formale. Occorre mappare tutti i “trattamenti satellite” che emergono dall’elaborazione algoritmica, identificando rischi di profilazione non dichiarata e discriminazione indiretta. Le organizzazioni dovranno sviluppare competenze specifiche per valutare come i sistemi di AI possano generare inferenze sui dipendenti che eccedono le finalità originarie.

La convergenza internazionale sull’AI generativa impone inoltre una revisione delle strategie di compliance globale. Le aziende che operano su mercati multipli non potranno più frammentare gli approcci privacy per giurisdizione, ma dovranno adottare standard uniformi che soddisfino il denominatore comune più elevato.

Le tensioni emerse questa settimana pongono interrogativi fondamentali sul futuro dell’ecosistema digitale europeo. Riuscirà il modello GDPR a evolversi mantenendo la propria identità garantista? La standardizzazione internazionale delle regole AI rappresenta un’opportunità per esportare i valori europei o rischia di diluirli in compromessi al ribasso? Come le organizzazioni potranno bilanciare innovazione e compliance in un contesto normativo sempre più dinamico? La risposta a queste domande determinerà non solo l’efficacia delle tutele privacy, ma la stessa sostenibilità del progetto di sovranità digitale europea.


📧 A cura di Nicola Fabiano
Avvocato - Studio Legale Fabiano

🌐 Studio Legale Fabiano: https://www.fabiano.law
🌐 Blog: https://www.nicfab.eu
🌐 DAPPREMO: www.dappremo.eu


Supporter

Law & Technology
Caffè 2.0 Privacy Podcast


Iscriviti alla newsletter su nicfab.eu

Segui le nostre news su questi canali:
Telegram Telegram → @nicfabnews
Matrix Matrix → #nicfabnews:matrix.org
Mastodon Mastodon → @nicfab@fosstodon.org
Bluesky Bluesky → @nicfab.eu