NicFab Newsletter

Numero 17 | 21 aprile 2026

Privacy, Data Protection, AI e Cybersecurity


Benvenuti al numero 17 della newsletter settimanale dedicata alla privacy, alla data protection, all’intelligenza artificiale, alla cybersecurity e all’etica. Ogni martedì troverete una selezione ragionata delle notizie più rilevanti della settimana precedente, con un focus su sviluppi normativi europei, giurisprudenza, enforcement e innovazione tecnologica.


In questo numero


GARANTE PRIVACY ITALIA

Newsletter N. 546 del 15 aprile 2026: cinque temi al centro dell’attività del Garante

La Newsletter N. 546 del Garante, pubblicata il 15 aprile 2026, raccoglie cinque interventi particolarmente significativi per DPO e compliance officer: le FAQ sulle prove d’esame e sui corsi a distanza, la sanzione a Eni per 96.000 euro, la decisione sul diritto di accesso alla posta elettronica aziendale dopo la cessazione del rapporto di lavoro, il provvedimento di illiceità sul sistema “FaceBoarding” di Milano Linate e il parere sul servizio digitale “Ascoltami” del MIM. Nei paragrafi che seguono una sintesi operativa di ciascun filone.

Fonte

Prove d’esame e corsi a distanza: pubblicate le FAQ del Garante

Le FAQ chiariscono che università, enti di formazione e soggetti pubblici o privati possono svolgere esami e corsi a distanza, ma solo entro il perimetro del quadro normativo di settore e per la sola finalità del regolare svolgimento della prova o della frequenza. Sono escluse raccolte di dati non pertinenti come la geolocalizzazione o i dati biometrici dei candidati; è espressamente esclusa l’analisi automatizzata dei comportamenti dei partecipanti per individuare presunte irregolarità.

Quando è impiegato un sistema di proctoring la responsabilità rimane in capo a università ed enti di formazione in qualità di titolari del trattamento, anche se le soluzioni tecniche sono fornite da terzi. Per i DPO del settore educativo diventa cruciale verificare la proporzionalità delle misure, valutare caso per caso la necessità di registrazioni audio-video e definire tempi di conservazione coerenti con le finalità. Le FAQ rappresentano uno strumento operativo per orientarsi in un ambito in costante evoluzione.

Fonte

Eni sanzionata per 96.000 euro: pubblicazione online di un atto di citazione con dati personali

Con il provvedimento n. 207 del 26 marzo 2026 (doc. web 10238270), il Garante ha dichiarato illecito il trattamento effettuato da Eni S.p.A. in relazione alla pubblicazione, sul proprio sito istituzionale, di un atto di citazione contenente i dati personali di dodici firmatari di una vicenda giudiziaria collegata a Greenpeace. L’Autorità ha ritenuto non dimostrata la necessità del trattamento e ha escluso la possibilità di fondarlo sul legittimo interesse ex art. 6, par. 1, lett. f) GDPR, osservando che la medesima finalità difensiva poteva essere soddisfatta con mezzi meno invasivi, ad esempio oscurando i dati degli attori.

Il caso è particolarmente istruttivo per i DPO perché tocca un nodo classico: la tensione tra diritto di difesa, trasparenza verso l’opinione pubblica e tutela degli interessati. Il provvedimento ribadisce che il test di necessità non può essere superato se esistono alternative ragionevolmente efficaci e meno intrusive, e conferma l’obbligo di pubblicazione integrale sul sito dell’Autorità a titolo sanzionatorio accessorio.

Fonte

Accesso alla posta elettronica aziendale dopo la fine del rapporto di lavoro: sì del Garante

Il Garante ha accolto il reclamo di un ex dipendente di una compagnia assicurativa che aveva chiesto copia dei messaggi della propria casella di posta elettronica aziendale e dei documenti conservati sul PC di lavoro. La società aveva effettuato una selezione preventiva dei contenuti, fornendo solo i messaggi ritenuti “strettamente personali” ed escludendo quelli di natura lavorativa.

Secondo l’Autorità, il diritto di accesso ex art. 15 GDPR si estende a tutti i dati personali dell’interessato, incluse le comunicazioni intercorse tramite un account aziendale nominativo. Non è quindi consentito al titolare decidere unilateralmente cosa fornire sulla base della distinzione tra ambito personale e professionale. Sono state inoltre rilevate criticità sulla trasparenza delle informative e sui tempi di conservazione. Per i DPO, la decisione offre un’indicazione chiara: le policy aziendali sulla posta elettronica devono prevedere procedure di ostensione che non filtrino preventivamente i contenuti in base a valutazioni del titolare.

Fonte

“FaceBoarding” di Milano Linate: trattamento biometrico dichiarato illecito

Con il provvedimento n. 164 del 12 marzo 2026 (doc. web 10238246), il Garante ha dichiarato illecito il trattamento dei dati biometrici dei passeggeri dell’aeroporto di Milano Linate attraverso il sistema di riconoscimento facciale “FaceBoarding” gestito da SEA. Il sistema, operativo dal maggio 2024 per i voli ITA Airways e Scandinavian Airlines, consentiva l’accesso all’area sterile e l’imbarco al gate previa registrazione e associazione del volto al documento di identità e alla carta d’imbarco.

L’istruttoria ha accertato il contrasto del sistema con il GDPR e con il parere dell’EDPB sull’uso del riconoscimento facciale negli aeroporti. La decisione è significativa in un contesto in cui altre giurisdizioni europee stanno invece accelerando l’adozione di tecnologie biometriche per la sicurezza aeroportuale. Per i DPO del settore trasporti il provvedimento impone una riflessione sui limiti del legittimo interesse e sulla necessità di base giuridica rafforzata per i dati biometrici ex art. 9 GDPR.

Fonte

Parere favorevole del Garante sul servizio digitale “Ascoltami” del MIM

Con il parere del 26 marzo 2026 (doc. web 10238220), il Garante si è espresso sullo schema di decreto del Ministero dell’Istruzione e del Merito che disciplina il servizio digitale “Ascoltami”, dedicato al supporto psicologico per studenti. Il parere è favorevole nella misura in cui il testo tiene conto delle osservazioni formulate dall’Autorità per garantire la conformità al quadro privacy.

L’architettura del servizio prevede che il MIM sia titolare del trattamento nell’ambito delle procedure di riconoscimento del contributo, mentre lo psicologo fornisca allo studente un’informativa distinta in occasione del primo incontro. Particolarmente delicato il meccanismo per le situazioni di fragilità di studenti minorenni: lo psicologo può segnalare a chi esercita la responsabilità genitoriale o legale e, previo consenso, informare l’Istituzione scolastica. Il caso è rilevante per i DPO del comparto scuola come modello di bilanciamento tra tutela del minore, segreto professionale e flussi informativi con le famiglie.

Fonte

Modifiche al Regolamento n. 1/2019: delega dell’ammonimento ai direttori

Con il provvedimento del 26 marzo 2026 (doc. web 10239146), il Garante ha modificato il proprio Regolamento interno n. 1/2019 per delegare ai direttori delle unità organizzative competenti l’adozione diretta delle misure correttive di ammonimento ex art. 58, par. 2, lett. b) GDPR. La delega opera esclusivamente per i casi in cui la condotta contestata sia risalente nel tempo, i cui effetti siano cessati o siano già stati rimediati dal titolare.

Restano riservati al Collegio i casi di maggiore impatto sistemico: trattamenti giornalistici, diritti politici e sindacali, titolari con fatturato superiore a 500.000 euro, nonché trattamenti effettuati da Ministeri, Regioni, Province Autonome, ASL e Comuni con popolazione superiore ai 50.000 abitanti. L’obiettivo dichiarato è alleggerire il carico decisionale del Collegio e concentrare le pronunce collegiali sulle questioni strategiche. Per DPO e organizzazioni, la novità può tradursi in una chiusura più rapida dei procedimenti meno complessi, specie per PMI e soggetti che hanno già adeguato i propri trattamenti.

Fonte

Ricerca scientifica: in consultazione le Linee guida EDPB con il contributo del Garante

Il 17 aprile 2026 il Garante ha diffuso il comunicato sull’adozione, da parte dell’EDPB, delle Linee guida sul trattamento dei dati personali per finalità di ricerca scientifica, alla cui redazione ha contribuito anche l’Autorità italiana. Il documento chiarisce la nozione di “ricerca scientifica” e precisa che i dati personali possono essere riutilizzati per tali attività anche se raccolti inizialmente per scopi diversi, fermo restando il rispetto di una base giuridica adeguata.

Le Linee guida definiscono inoltre i limiti all’esercizio dei diritti degli interessati, in particolare cancellazione e opposizione, quando tale esercizio possa compromettere gli obiettivi della ricerca, e richiamano la necessità di adottare misure tecniche e organizzative appropriate, tra cui anonimizzazione e pseudonimizzazione. Ai lavori della Plenaria di Bruxelles del 15-16 aprile hanno preso parte la Vicepresidente Ginevra Cerrina Feroni e il dirigente Riccardo Acciai. La consultazione pubblica è aperta fino al 25 giugno 2026.

Fonte


EDPB - COMITATO EUROPEO PROTEZIONE DATI

Linee guida per la ricerca scientifica: sei criteri per qualificare l’attività

Con l’adozione delle Guidelines 1/2026, l’EDPB ha introdotto sei fattori chiave per identificare quando un’attività costituisce effettivamente ricerca scientifica ai sensi del GDPR: approccio metodico, rispetto di standard etici, verificabilità, autonomia, obiettivi di ricerca e contributo alla conoscenza scientifica. Il documento chiarisce inoltre che l’ulteriore trattamento per ricerca scientifica è presunto compatibile con la finalità iniziale, semplificando l’analisi di compatibilità ex art. 6, par. 4 GDPR.

Per i DPO, un punto di attenzione particolare è l’applicabilità del “consenso ampio” quando le finalità di ricerca non sono completamente definite al momento della raccolta. Il documento offre inoltre indicazioni pratiche sulla ripartizione delle responsabilità tra titolari, contitolari e responsabili, spesso complessa nei progetti di ricerca multicentrica. La consultazione pubblica è aperta fino al 25 giugno 2026 e rappresenta un’opportunità concreta per DPO e organizzazioni di contribuire alla definizione delle regole operative.

Fonte

Template DPIA standardizzato: in consultazione il modello europeo armonizzato

L’EDPB ha adottato un template armonizzato per le Valutazioni d’Impatto sulla Protezione dei Dati, accompagnato da un documento esplicativo che chiarisce i concetti chiave. L’iniziativa si inserisce nella Strategia di Helsinki per semplificare la compliance GDPR e rafforzare la coerenza tra Stati membri.

Il template, pur non essendo obbligatorio, offre campi predefiniti che guidano le organizzazioni attraverso il processo step-by-step, riducendo errori e tempi di completamento. Per i DPO rappresenta uno strumento utile per standardizzare le proprie metodologie e garantire completezza nell’analisi dei rischi. La consultazione pubblica è aperta fino al 9 giugno 2026: gli strumenti nazionali esistenti restano pienamente validi e non è prevista alcuna migrazione obbligatoria.

Fonte

Primo Sigillo Europeo di Protezione dei Dati: approvati i criteri Europrivacy per i trasferimenti

L’EDPB ha approvato i primi criteri di certificazione Europrivacy come Sigillo Europeo di Protezione dei Dati, con una versione specifica per i trasferimenti internazionali ex artt. 42 e 46 GDPR. Si tratta di un passaggio significativo nell’attuazione del sistema di certificazione europeo: questi sigilli offrono strumenti concreti per dimostrare la compliance e facilitare i trasferimenti verso paesi terzi.

Per i DPO che operano in contesti multinazionali, la certificazione Europrivacy costituisce un meccanismo standardizzato per validare le pratiche di protezione dati e semplificare la dimostrazione dell’adeguatezza delle garanzie nei trasferimenti extra-UE. È un tassello che si aggiunge al panorama degli strumenti di trasferimento previsti dal Capo V del GDPR, particolarmente utile in assenza di decisioni di adeguatezza specifiche per il paese di destinazione.

Fonte

Sprint team sulle linee guida anonimizzazione: accelerazione in plenaria

Nella stessa plenaria del 15-16 aprile l’EDPB ha annunciato la costituzione di uno “sprint team” dedicato ad accelerare la finalizzazione delle linee guida sull’anonimizzazione. La scelta risponde a una richiesta ripetuta da parte degli stakeholder: in un contesto in cui le tecniche di de-identificazione si scontrano con capacità analitiche di re-identificazione sempre più sofisticate, le indicazioni pratiche del Board sono attese da tempo.

Per i DPO, la notizia è particolarmente rilevante perché l’anonimizzazione è il pivot di numerosi trattamenti oggi al centro del dibattito: ricerca scientifica, AI training, condivisione di dataset tra partner commerciali, open data della pubblica amministrazione. Un quadro interpretativo armonizzato dell’EDPB può ridurre l’incertezza sulla soglia tra dato pseudonimizzato, dato anonimizzato e dato personale, cornice giuridicamente decisiva soprattutto alla luce del Digital Omnibus.

Fonte


COMMISSIONE EUROPEA

App europea per la verifica dell’età: annunciata la disponibilità tecnica

Il 15 aprile 2026 la Presidente della Commissione Ursula von der Leyen, insieme alla Vicepresidente Esecutiva per la sovranità tecnologica Henna Virkkunen, ha annunciato che l’app europea per la verifica dell’età è tecnicamente pronta e sarà presto disponibile per i cittadini. La soluzione è costruita sul framework dell’EU Digital Identity Wallet e mira a fornire un’esperienza di age verification coerente, sicura e privacy-preserving integrabile in un’ampia gamma di servizi digitali europei.

L’app consente di dimostrare il superamento di una soglia d’età senza condividere altre informazioni personali: secondo quanto comunicato dalla Commissione, l’utente registra una prova d’età tramite documento d’identità o passaporto, la soluzione è completamente anonima, open source e funziona su qualsiasi dispositivo. Sette Stati membri (Francia, Spagna, Italia, Grecia, Cipro, Danimarca e Irlanda) hanno già annunciato l’intenzione di integrare l’app nei propri wallet di identità digitale nazionali.

L’iniziativa è coerente con l’enforcement del Digital Services Act: le piattaforme che devono limitare l’accesso ai minori non sono obbligate ad adottare questa specifica app, ma devono dimostrare che i propri strumenti alternativi sono almeno altrettanto efficaci, pena sanzioni. Per DPO e compliance officer il tema entra nell’agenda operativa: se e nella misura in cui l’app venisse adottata diffusamente, potrebbero rendersi necessari aggiornamenti ai flussi di onboarding, alle DPIA dedicate e alle valutazioni sulla catena dei trattamenti.

Fonte | Fonte

Special Panel sulla sicurezza online dei minori: seconda riunione a Bruxelles

Il 16 aprile 2026 si è tenuta la seconda riunione del Special Panel sulla sicurezza online dei minori, organismo che supporta la Presidente della Commissione nella definizione delle politiche europee in materia. Il panel è incaricato di elaborare un set di raccomandazioni per tutti gli Stati membri entro l’estate, con un approccio armonizzato che integra verifica dell’età, progettazione non-addictive delle piattaforme e contrasto al grooming.

Per i DPO del settore media e social network la riunione segnala un’accelerazione delle politiche europee sulla protezione dei minori online, con effetti a cascata su obblighi di DPIA, informativa ai minori e configurazioni di default dei servizi. La convergenza tra app di verifica dell’età, DSA e linee guida ex art. 28 DSA disegna un quadro regolatorio sempre più stringente.

Fonte


CNIL - AUTORITÀ FRANCESE

Pixel di tracciamento nelle email: pubblicate le raccomandazioni definitive

La CNIL ha pubblicato il 14 aprile le raccomandazioni definitive sui pixel di tracciamento nelle email, tecnologia che consente di monitorare apertura, orario, dispositivo e localizzazione approssimativa del destinatario. Questi pixel invisibili sollevano questioni significative per la privacy, operando in uno spazio personale come la casella di posta.

I DPO devono prestare particolare attenzione a informativa e consenso, distinguendo tra finalità legittime (per esempio il miglioramento della deliverability) e usi commerciali. Le raccomandazioni integrano le linee guida EDPB sui traccianti e la raccomandazione CNIL sui cookie, adattandole alle specificità tecniche dell’email marketing. Per i titolari è essenziale valutare caso per caso il ruolo proprio e dei fornitori di servizi (titolare vs responsabile), elemento determinante per definire correttamente gli obblighi di compliance e le misure di protezione dati.

Fonte | Fonte


SVILUPPI INTERNAZIONALI

L’Alabama approva il Personal Data Protection Act: il mosaico statunitense si estende

L’Alabama è diventato il 21° stato americano ad approvare una legge comprehensive sulla privacy. Il Governatore Ivey ha firmato l’Alabama Personal Data Protection Act (APDPA) il 16 aprile 2026; l’entrata in vigore è fissata al 1° maggio 2027. Il testo si ispira al framework del Washington Privacy Act ma presenta alcune differenze significative.

La caratteristica più rilevante dell’APDPA sono le soglie di applicabilità particolarmente basse: la legge si applica alle aziende che controllano o trattano dati di oltre 25.000 consumatori oppure che ricavano più del 25% dei ricavi dalla vendita di dati personali. Soglie sensibilmente inferiori rispetto ad altre leggi statali, che in genere richiedono almeno 100.000 consumatori interessati.

Per i DPO di gruppi che operano anche negli USA, il segnale è chiaro: il mosaico normativo statunitense continua ad espandersi e richiede un’attenzione crescente alle soglie di applicabilità di ciascun singolo stato, che diventano progressivamente più inclusive.

Fonte


INTELLIGENZA ARTIFICIALE

Opinione BCE sulla semplificazione dell’AI Act

La Banca Centrale Europea ha pubblicato un parere sulla proposta di regolamento per semplificare l’implementazione delle regole armonizzate sull’intelligenza artificiale. Il documento rappresenta un contributo significativo nell’evoluzione del quadro normativo europeo dell’AI, suggerendo modifiche per rendere più praticabile l’applicazione dell’AI Act, specialmente nel settore finanziario.

L’intervento della BCE sottolinea l’importanza del coordinamento tra autorità di vigilanza finanziaria e regolamentazione dell’AI, tema particolarmente rilevante per le istituzioni che operano con sistemi di intelligenza artificiale nel settore bancario e assicurativo. L’iniziativa può segnalare un approccio più pragmatico nell’implementazione delle normative AI, con l’obiettivo di bilanciare tutela dei diritti e innovazione nel mercato europeo.

Fonte

Policy-Invisible Violations negli agenti LLM: il benchmark PhantomPolicy

Una ricerca recente individua un nuovo tipo di vulnerabilità negli agenti basati su LLM: le “violazioni invisibili alle policy”. Si tratta di casi in cui l’agente esegue azioni tecnicamente valide e autorizzate dall’utente, ma che violano policy organizzative perché le informazioni necessarie per il giudizio corretto non sono visibili nel contesto dell’agente.

Il benchmark PhantomPolicy presenta otto categorie di violazioni e il framework Sentinel introduce un approccio basato sulla simulazione controfattuale di grafi della conoscenza. Il sistema tratta ogni azione come una mutazione proposta allo stato del mondo organizzativo, raggiungendo un’accuratezza del 93% contro il 68,8% dei sistemi tradizionali. La ricerca ha implicazioni dirette per chi progetta agenti enterprise: occorre rendere lo stato del mondo rilevante per le policy accessibile ai sistemi di enforcement, e non presumere che l’autorizzazione formale dell’utente copra tutti i rischi organizzativi.

Fonte

LASA: allineamento semantico multilingua per la sicurezza degli LLM

La ricerca presenta LASA (Language-Agnostic Semantic Alignment), una soluzione al problema delle vulnerabilità di sicurezza degli LLM nelle lingue a basse risorse. Gli autori identificano un “collo di bottiglia semantico” nei modelli, uno strato intermedio dove le rappresentazioni sono governate dal contenuto semantico piuttosto che dall’identità linguistica.

LASA ancora l’allineamento di sicurezza direttamente in questi colli di bottiglia semantici, riducendo il tasso di successo degli attacchi dal 24,7% al 2,8% su LLaMA-3.1-8B-Instruct. I risultati rimangono consistenti sui modelli Qwen2.5 e Qwen3 Instruct. L’approccio propone un cambio di paradigma rilevante per le organizzazioni che distribuiscono LLM in contesti multilingua: invece di ancorare la sicurezza al testo superficiale, si focalizza sullo spazio semantico language-agnostic del modello, migliorando la robustezza globale.

Fonte

GF-Score: robustezza certificata con garanzie di equità tra classi

Il GF-Score introduce un framework per valutare la robustezza avversaria decomponendo i punteggi aggregati in profili per-classe, rivelando come la robustezza sia distribuita in modo disomogeneo tra diverse categorie. Il sistema quantifica le disparità attraverso quattro metriche derivate dall’economia del benessere.

La valutazione su 22 modelli di RobustBench rivela pattern consistenti di vulnerabilità: ad esempio, la classe “gatto” risulta la più debole nel 76% dei modelli CIFAR-10. Paradossalmente, i modelli più robusti tendono a mostrare maggiori disparità tra classi. Il framework elimina la dipendenza da attacchi avversari attraverso una procedura di auto-calibrazione, offrendo una pipeline pratica per l’audit della robustezza certificata. Per i DPO che devono attestare l’accuratezza e la non discriminazione di modelli ad alto rischio ex AI Act, il metodo fornisce uno strumento concreto di verifica.

Fonte


CYBERSECURITY

Apache ActiveMQ: vulnerabilità critica sotto attacco, patch urgente entro il 30 aprile

La CISA ha aggiunto CVE-2026-34197 al catalogo delle vulnerabilità sfruttate attivamente, richiedendo l’applicazione delle patch entro il 30 aprile. La falla di Apache ActiveMQ Classic (CVSS 8.8) consente l’esecuzione di codice arbitrario tramite l’API Jolokia, sfruttando credenziali predefinite spesso non modificate.

Particolarmente preoccupante il fatto che la vulnerabilità fosse latente da 13 anni e che, nelle versioni 6.0.0-6.1.1, possa essere sfruttata senza autenticazione. La telemetria di Fortinet FortiGuard Labs registra un picco di tentativi di sfruttamento il 14 aprile, a conferma che i tempi di exploit dopo la disclosure continuano a ridursi. Le versioni risolutive sono 5.19.4 e 6.2.3. Per i DPO, il caso sottolinea l’importanza di inventari aggiornati dei sistemi esposti e di procedure di patch emergency, tanto più che ActiveMQ è spesso impiegato in pipeline dati critiche e una valutazione d’impatto immediata sui trattamenti di dati personali è d’obbligo.

Fonte

April Patch Tuesday 2026: falla critica SAP (CVSS 9.9) e aggiornamenti massivi

Il 15 aprile 2026 è stato pubblicato il Patch Tuesday di aprile, con correzioni per vulnerabilità critiche in prodotti Adobe, Fortinet, Microsoft e SAP. In cima all’elenco una SQL injection in SAP Business Planning and Consolidation e SAP Business Warehouse (CVE-2026-27681, CVSS 9.9) che può portare all’esecuzione arbitraria di query sul database.

Nella stessa finestra la CISA ha aggiunto sei vulnerabilità al catalogo KEV, tra cui CVE-2026-21643 (FortiClient EMS, CVSS 9.1), con scadenza di remediation per le agenzie federali al 27 aprile e, per la falla FortiClient, anticipata al 16 aprile. Per i DPO e i responsabili della sicurezza, il Patch Tuesday di aprile richiede una revisione straordinaria del piano di patching, soprattutto dove SAP o FortiClient EMS gestiscono flussi che interessano dati personali strutturati.

Fonte

Cisco patcha quattro falle critiche in Identity Services e Webex

Il 16 aprile 2026 Cisco ha rilasciato patch per quattro vulnerabilità critiche in Identity Services e Webex che consentono esecuzione di codice arbitrario e impersonation di utenti. Tra le più gravi CVE-2026-20184 (CVSS 9.8), una validazione impropria del certificato nell’integrazione SSO.

L’impatto potenziale è significativo: i sistemi di identity e le piattaforme di videoconferenza sono tipicamente al centro della catena di autenticazione aziendale e una compromissione può propagarsi rapidamente a tutti i servizi collegati. Per i DPO, l’evento è un promemoria della centralità degli aggiornamenti tempestivi sui sistemi di identità e collaborazione, che non sono mai “solo” strumenti IT ma componenti critici della governance privacy.

Fonte

Vercel: breach via OAuth di un tool AI di terze parti

La piattaforma cloud Vercel ha subito un breach che ha interessato un numero limitato di clienti, con gli attaccanti che hanno successivamente offerto i dati rubati sul dark web. L’incidente è originato dalla compromissione di un’applicazione OAuth di un tool AI di terze parti (Context.ai), che ha permesso l’accesso a un account Google Workspace di un dipendente Vercel.

Gli attaccanti hanno poi escalato i privilegi accedendo a variabili d’ambiente non marcate come sensibili e quindi non cifrate a riposo. Vercel ha confermato che i servizi principali e i progetti open-source rimangono sicuri, ma l’incidente evidenzia la fragilità della supply chain OAuth e dei tool AI integrati nei flussi aziendali. Per i DPO il caso è utile per rivedere le clausole contrattuali con i fornitori cloud, specialmente in tema di notifica tempestiva di breach e gestione delle variabili contenenti dati personali nelle pipeline di sviluppo.

Fonte

Roundup settimanale: normative satellitari, W3LL smantellato, escalation AWS RES

Il Senato USA avanza il Satellite Cybersecurity Act per proteggere le comunicazioni satellitari commerciali, mentre l’FBI smantella l’infrastruttura del kit di phishing W3LL responsabile di oltre 20 milioni di dollari di frodi tentate. Meta mette a disposizione strumenti professionali per i ricercatori di sicurezza nell’ambito del bug bounty.

Scoperte vulnerabilità critiche in AWS RES che consentono l’escalation di privilegi, mentre il malware GlassWorm si diffonde attraverso estensioni IDE malevole. Il gruppo ShinyHunters minaccia di rilasciare dati di Rockstar Games. Il quadro complessivo conferma l’evoluzione rapida del panorama delle minacce, dall’infrastruttura satellitare ai vettori di attacco negli ambienti di sviluppo. Per i DPO, i trend emergenti vanno incorporati nelle valutazioni di rischio e negli aggiornamenti delle misure di sicurezza organizzative.

Fonte


TECH & INNOVAZIONE

Attacchi di Gradient Inversion Verificabili nel Federated Learning

Un nuovo studio rivela vulnerabilità precedentemente sottovalutate nei sistemi di federated learning, in particolare per i dati tabulari. I ricercatori presentano VGIA (Verifiable Gradient Inversion Attack), che fornisce un certificato esplicito di correttezza per i campioni ricostruiti, superando le limitazioni degli attacchi esistenti che non possono verificare il successo delle proprie ricostruzioni.

L’approccio sfrutta una visione geometrica delle attivazioni ReLU, dove i confini di attivazione definiscono iperpiani nello spazio degli input. VGIA introduce un test di verifica algebrico che rileva quando una regione contiene esattamente un record, permettendo la ricostruzione analitica precisa. La ricerca sfida la percezione che i dati tabulari siano meno vulnerabili agli attacchi di privacy ed evidenzia la necessità di meccanismi di protezione più robusti nel federated learning, soprattutto in settori che gestiscono dati strutturati sensibili come sanità e finanza.

Fonte

Regressione lineare differentially private: il “free lunch” esteso

Una nuova ricerca estende il concetto di “free lunch” nella privacy differenziale, dimostrando come statistiche rilevanti possano essere stimate privatamente senza costi aggiuntivi in termini di privacy budget. Gli autori sviluppano trasformazioni simplex multidimensionali che migliorano le stime delle statistiche sufficienti per la regressione lineare privata basata sui minimi quadrati.

Il lavoro parte dai risultati di Kulesza et al. e Fitzsimons et al., che avevano mostrato come la dimensione del dataset possa essere stimata “gratuitamente” tramite trasformazioni simplex di variabili limitate. La nuova estensione applica il principio a variabili e funzioni limitate nell’intervallo [0,1], con applicabilità generale alla regressione polinomiale differentially private. Per le organizzazioni, i risultati analitici e numerici offrono strumenti più efficaci per implementare analisi statistiche privacy-preserving senza compromettere significativamente l’accuratezza.

Fonte

Differentially Private Conformal Prediction: incertezza e privacy end-to-end

I ricercatori introducono la Differentially Private Conformal Prediction (DPCP), un framework che combina la robustezza della conformal prediction con le garanzie di privacy differenziale. La conformal prediction sta guadagnando attenzione come metodo flessibile per la quantificazione dell’incertezza attraverso prediction sets, ma la sua applicazione in contesti privacy-sensitive richiedeva soluzioni dedicate.

Il framework proposto evita le perdite di efficienza causate dal data splitting attraverso una procedura “differential CP” che sfrutta le proprietà di stabilità dei meccanismi DP. DPCP combina training di modelli DP con un meccanismo privato di quantili per la calibrazione, stabilendo garanzie end-to-end di privacy. Gli esperimenti mostrano che DPCP produce prediction sets più stretti rispetto agli approcci split conformal esistenti a parità di privacy budget, un avanzamento rilevante per applicazioni che richiedono sia quantificazione dell’incertezza che protezione della privacy (per esempio triage sanitario o scoring creditizio).

Fonte

PrivEraserVerify: federated unlearning efficiente, privato e verificabile

PrivEraserVerify (PEV) rappresenta il primo framework che integra simultaneamente efficienza, privacy e verificabilità nel federated unlearning, rispondendo ai requisiti del “diritto all’oblio”. Mentre le soluzioni esistenti affrontano solo parzialmente queste sfide, PEV propone un approccio unificato articolato su tre componenti.

Il sistema utilizza checkpointing adattivo per mantenere aggiornamenti storici critici, calibrazione differentially private layer-adaptive per rimuovere selettivamente l’influenza dei client e verifica basata su fingerprint per conferme decentralizzate. Gli esperimenti mostrano un unlearning 2-3 volte più rapido del retraining completo, con garanzie formali di indistinguibilità. Per le organizzazioni che operano in contesti regolamentati, PEV offre una soluzione pratica per implementare il federated learning in compliance con il GDPR, bilanciando efficienza operativa e requisiti legali di data protection.

Fonte


RICERCA SCIENTIFICA

Selezione dei paper più rilevanti della settimana da arXiv su AI, Machine Learning e Privacy

Sicurezza e Robustezza dei Modelli AI

MLDAS: Machine Learning Dynamic Algorithm Selection for Software-Defined Networking Security
Nuovo framework per l’integrazione dinamica di algoritmi ML con controller SDN per migliorare la sicurezza di rete attraverso meccanismi decisionali adattivi. L’approccio promette una maggiore protezione dei dati personali durante la navigazione, rilevante per i DPO nella valutazione di misure tecniche appropriate ex art. 32 GDPR. arXiv

Anomaly Detection in IEC-61850 GOOSE Networks
Approccio per il rilevamento di intrusioni in tempo reale su protocolli industriali critici con vincoli di latenza sub-4ms. La ricerca evidenzia vulnerabilità in infrastrutture critiche che trattano dati personali, richiedendo DPIA specifiche per i settori energetico e industriale. arXiv

Vulnerabilità e Attacchi agli Agenti AI

LLMs Gaming Verifiers: RLVR can Lead to Reward Hacking
Studio su come gli LLM possano aggirare sistemi di verifica durante l’addestramento RLVR, abbandonando sistematicamente l’induzione di regole logiche. Il reward hacking compromette l’affidabilità dei sistemi AI, con impatti diretti sulla conformità ai requisiti di accuratezza e trasparenza normativa. arXiv

Context Over Content: Exposing Evaluation Faking in Automated Judges
Ricerca che espone come i giudici automatici AI possano essere influenzati dal contesto piuttosto che dal contenuto semantico effettivo. Sfida l’assunzione di oggettività nei sistemi di valutazione automatica, tema cruciale per la compliance in decisioni automatizzate che impattano gli interessati. arXiv

Fairness e Content Moderation

When Fairness Metrics Disagree: Evaluating the Reliability of Demographic Fairness Assessment
Analisi della coerenza tra diverse metriche di fairness in applicazioni critiche come riconoscimento biometrico e valutazione rischi automatizzata. L’incoerenza tra metriche complica la dimostrazione di non-discriminazione, elemento centrale per la compliance in trattamenti automatizzati. arXiv


AI ACT IN PILLOLE - Parte 17

Articolo 21 - Cooperazione con le autorità competenti

Dopo aver analizzato nella Parte 16 le azioni correttive e gli obblighi informativi che i fornitori devono adempiere quando rilevano non conformità nei loro sistemi di IA, proseguiamo oggi con l’Articolo 21, che definisce il quadro della cooperazione obbligatoria con le autorità competenti.

L’Articolo 21 stabilisce un principio fondamentale: i fornitori di sistemi di IA ad alto rischio hanno l’obbligo di cooperare attivamente con le autorità nazionali competenti durante le loro attività di vigilanza e controllo. Questa disposizione rappresenta un pilastro essenziale del sistema di enforcement dell’AI Act, creando un canale diretto e strutturato tra il settore privato e le autorità pubbliche.

Ambito di applicazione e soggetti coinvolti

L’obbligo di cooperazione si applica principalmente ai fornitori di sistemi di IA ad alto rischio, ma il regolamento estende questo dovere anche agli operatori e ai terzi lungo la catena di fornitura quando richiesto dalle autorità. Le autorità competenti includono sia quelle nazionali designate da ciascuno Stato membro, sia la Commissione europea nelle sue funzioni di supervisione.

Contenuto degli obblighi di cooperazione

La cooperazione deve essere immediata, completa e trasparente. I fornitori sono tenuti a fornire alle autorità competenti tutte le informazioni e la documentazione necessarie per valutare la conformità del sistema di IA. Questo include l’accesso alla documentazione tecnica, ai registri automatici, ai dati utilizzati per l’addestramento e la validazione, nonché qualsiasi altra informazione rilevante per la valutazione del rischio.

Un aspetto particolarmente significativo riguarda l’obbligo di concedere alle autorità l’accesso ai sistemi di IA attraverso interfacce di programmazione delle applicazioni (API) o altri mezzi tecnici appropriati. La disposizione consente alle autorità di effettuare verifiche dirette sul funzionamento dei sistemi, rappresentando un’evoluzione importante rispetto ai tradizionali controlli documentali.

Modalità pratiche di cooperazione

Il regolamento richiede che la cooperazione avvenga entro tempi ragionevoli, tipicamente definiti caso per caso nella richiesta dell’autorità in funzione della complessità dell’oggetto e del livello di rischio. I fornitori devono designare punti di contatto specifici per gestire le comunicazioni con le autorità e garantire risposte tempestive.

Particolare attenzione è dedicata alla protezione delle informazioni commerciali sensibili e dei segreti industriali. Le autorità sono tenute a trattare con riservatezza le informazioni ricevute, mentre i fornitori non possono invocare la protezione del segreto industriale per sottrarsi agli obblighi di cooperazione quando ciò comprometta la valutazione dei rischi per la sicurezza.

Implicazioni operative per le organizzazioni

Per i team di compliance, questo articolo richiede lo sviluppo di procedure interne strutturate per gestire le richieste delle autorità. È essenziale predisporre un sistema di classificazione e archiviazione della documentazione tecnica che consenta un recupero rapido delle informazioni richieste. Inoltre, le organizzazioni devono formare il personale tecnico sui protocolli di interazione con le autorità, bilanciando trasparenza e protezione delle informazioni sensibili.

Dal punto di vista tecnologico, può essere necessario implementare interfacce dedicate per consentire alle autorità di accedere ai sistemi in modalità controllata, senza compromettere l’operatività normale o la sicurezza informatica.

Conseguenze della mancata cooperazione

L’articolo non si limita a stabilire obblighi, ma prevede anche conseguenze specifiche per la mancata cooperazione. Il rifiuto di collaborare o la fornitura di informazioni incomplete o inesatte può comportare sanzioni amministrative pecuniarie fino al 1% del fatturato annuo mondiale totale dell’esercizio precedente, oltre a possibili misure cautelari sui sistemi di IA.

Nella prossima puntata approfondiremo l’Articolo 22, dedicato ai rappresentanti autorizzati dei fornitori, esplorando quando è obbligatoria la loro nomina e quali responsabilità assumono nel garantire la conformità all’AI Act per conto dei fornitori stabiliti al di fuori dell’Unione europea.


Prompt per sentenze della Corte di Giustizia UE

Dopo aver esplorato l’analisi dei provvedimenti delle autorità di controllo, spostiamo l’attenzione verso il vertice della gerarchia giurisprudenziale europea: le sentenze della Corte di Giustizia UE. Qui il Legal Prompting deve confrontarsi con testi di complessità estrema, ricchi di riferimenti normativi, precedenti e ragionamenti articolati.

La sfida principale è costruire prompt che guidino il modello attraverso la struttura peculiare delle decisioni CGUE, rispettando la logica del ragionamento giurisprudenziale. Un prompt efficace deve distinguere tra procedimento, questioni pregiudiziali, ratio decidendi e obiter dicta, evitando che il modello produca sintesi superficiali o collegamenti impropri.

Struttura del prompt per l’analisi:

Analizza la sentenza [RIFERIMENTO] della CGUE considerando:
1. Contesto procedurale e questioni pregiudiziali
2. Principi giuridici affermati e loro portata
3. Impatto sulla normativa nazionale [SPECIFICARE PAESE]
4. Precedenti citati e distinctions operate
5. Implicazioni pratiche per [SETTORE/CATEGORIA]

Evidenzia separatamente gli aspetti consolidati da quelli innovativi.

La supervisione umana diventa qui ancora più cruciale: i modelli linguistici tendono a costruire output plausibili ma possono fraintendere sottigliezze interpretative decisive. La deontologia professionale impone di verificare sempre le citazioni e i collegamenti giurisprudenziali suggeriti dall’AI.

Sul piano della compliance, l’analisi di sentenze solleva questioni delicate. Il GDPR e la prossima Legge 132/2025 richiedono particolare attenzione quando si processano documenti che, pur pubblici, possono contenere riferimenti a soggetti identificabili. La scelta dell’infrastruttura - locale vs cloud - diventa strategica quando si trattano fascicoli contenenti dati sensibili collegati ai casi analizzati.

Un esempio pratico: analizzando la sentenza Schrems II, il prompt deve guidare il modello a distinguere tra l’invalidazione del Privacy Shield (aspetto consolidato) e i principi sui trasferimenti extra-UE (portata interpretativa), evitando generalizzazioni che potrebbero indurre valutazioni errate sui singoli casi.

La prossima settimana affronteremo come integrare queste competenze nei processi di compliance aziendale, trasformando l’analisi giurisprudenziale in strumento operativo per DPO e compliance officer.

Approfondimento: Legal Prompting: la nuova frontiera dell’AI in ambito giuridico


PODCAST

Due tecniche cambiano il modo in cui il modello affronta un problema giuridico: il chain-of-thought — la richiesta esplicita di esporre i passaggi logici prima della conclusione — e il few-shot prompting — fornire due o tre esempi ben scelti per orientare formato e metodo della risposta.

In questo episodio vediamo:

  • come strutturare un ragionamento passo-passo con un esempio concreto sul trasferimento dati extra-UE (Capo V GDPR, Schrems II);
  • come scegliere gli esempi nel few-shot senza introdurre bias;
  • come combinare le due tecniche per l’analisi di provvedimenti complessi;
  • i tre limiti da conoscere: lunghezza del contesto, bias degli esempi, plausibilità che non è correttezza giuridica;
  • perché documentare prompt, esempi e verifica è già governance dell’AI.

Chain-of-thought e few-shot non sono trucchi: sono il modo in cui traduciamo il nostro metodo giuridico in istruzioni comprensibili per il modello.

Nel prossimo episodio applicheremo queste tecniche all’analisi di contratti e clausole.


DAL BLOG NICFAB

AI Agents e GDPR: quale base giuridica?

16 aprile 2026

AI agents e dati personali: base giuridica, decisioni automatizzate ex art. 22 e la proposta dell’art. 88c del Digital Omnibus.

Leggi l’articolo completo

L’EDPB adotta un template armonizzato per la DPIA: cosa cambia per i professionisti

14 aprile 2026

L’EDPB ha pubblicato un template armonizzato per la DPIA in consultazione pubblica. Analisi della struttura, della distinzione rischio di progettazione vs rischio da incidente, e delle implicazioni per i professionisti.

Leggi l’articolo completo

AI Agents: quando il deployer diventa provider

13 aprile 2026

Quando un deployer diventa provider ai sensi dell’AI Act? Analisi dell’art. 25 e dei fattori di riqualificazione: personalizzazione, integrazione e rebranding di AI agents.

Leggi l’articolo completo


Eventi e incontri segnalati

Privacy Symposium (20 aprile 2026)

Conferenza internazionale su privacy e protezione dei dati.

EDPB | Info e programma

Computers, Privacy and Data Protection - CPDP Brussels (19 maggio 2026)

Conferenza interdisciplinare su protezione dati, tecnologia e diritto.

EDPB | Info e programma

Nordic meeting (21 maggio 2026)

Incontro delle autorità nordiche per la protezione dei dati.

EDPB | Info e programma

High-Level Debate: “From Omnibus to Opportunity: Driving Data Protection and Innovation” (8 giugno 2026)

Dibattito ad alto livello sulle proposte Omnibus e le loro implicazioni per il GDPR.

EDPS | Info e programma


Conclusione

La settimana dal 13 al 19 aprile 2026 restituisce tre segnali convergenti per chi si occupa di protezione dati, AI e compliance digitale.

Il primo è un passaggio di fase dell’Europa post-Omnibus: le istituzioni scelgono di operazionalizzare il modello esistente invece di rimetterlo in discussione. L’annuncio della Commissione sull’app europea di age verification costruita sul framework dell’EU Digital Identity Wallet, la plenaria EDPB con tre deliverable coordinati — linee guida ricerca scientifica, template DPIA, Sigillo Europeo Europrivacy — e lo sprint team sulle linee guida anonimizzazione disegnano una strategia di traduzione dei principi in strumenti pratici. Chi attendeva ulteriori aperture normative trova invece consolidamento e strumenti.

Il secondo è la centralità recuperata del Garante italiano. La Newsletter N. 546 raccoglie cinque filoni operativi in una sola finestra: FAQ proctoring, sanzione Eni sul test di necessità del legittimo interesse, affermazione dell’accesso alla casella aziendale post-rapporto, illiceità del FaceBoarding di Milano Linate, delega dell’ammonimento ai direttori per i casi meno complessi. L’Autorità si muove tra enforcement deciso e razionalizzazione procedurale, e l’effetto combinato è un incentivo concreto alla compliance proattiva per le organizzazioni italiane.

Il terzo è la compressione dei tempi in cybersecurity. Patch Tuesday di aprile con falla SAP CVSS 9.9, patch Cisco su Identity Services e Webex, Apache ActiveMQ sotto exploit attivo, breach Vercel via OAuth di un tool AI di terze parti: la finestra tra disclosure ed exploit si restringe e la supply chain OAuth/AI emerge come vettore sistemico. Per i DPO, integrare threat intelligence e governance dei trattamenti non è più un plus ma un presupposto operativo.

📧 A cura di Nicola Fabiano
Avvocato - Studio Legale Fabiano

🌐 Studio Legale Fabiano: https://www.fabiano.law
🌐 Blog: https://www.nicfab.eu
🌐 DAPPREMO: www.dappremo.eu


Supporter

Law & Technology
Caffè 2.0 Privacy Podcast


Iscriviti alla newsletter su nicfab.eu

Segui le nostre news su questi canali:
Telegram Telegram → @nicfabnews
Matrix Matrix → #nicfabnews:matrix.org
Mastodon Mastodon → @nicfab@fosstodon.org
Bluesky Bluesky → @nicfab.eu