La prima legge italiana sull’intelligenza artificiale: una svolta storica per l’Europa
Il 17 settembre 2025 rimarrà scolpito nella storia legislativa italiana come il giorno in cui il nostro Paese ha compiuto un passo da gigante verso il futuro digitale. Con 77 voti favorevoli, 55 contrari e 2 astensioni, il Senato ha approvato definitivamente la prima legge quadro nazionale sull’Intelligenza Artificiale, rendendo l’Italia il primo Paese dell’Unione Europea con un quadro normativo nazionale pienamente allineato all’AI Act europeo.
Il disegno di legge S. 1146-B, intitolato “Disposizioni e deleghe al Governo in materia di intelligenza artificiale”, attende ora la pubblicazione in Gazzetta Ufficiale per entrare in vigore decorsi 15 giorni dalla pubblicazione. Non è solo un atto normativo ma rappresenta una vera e propria dichiarazione d’intenti: l’Italia vuole essere protagonista della rivoluzione dell’intelligenza artificiale, ma farlo in modo responsabile, sicuro e rispettoso dei diritti fondamentali.
Un Percorso Parlamentare Complesso ma Determinato
L’iter parlamentare di questa legge racconta una storia di determinazione e visione strategica. Il disegno di legge ha iniziato il suo percorso nell’aprile 2024, quando il Consiglio dei Ministri, presieduto da Giorgia Meloni, lo ha approvato su proposta del Ministro della Giustizia Carlo Nordio. Classificato come collegato alla manovra di bilancio ai sensi dell’articolo 126-bis del Regolamento, il provvedimento ha attraversato tre letture parlamentari prima di giungere all’approvazione definitiva.
Il Senato lo ha approvato in prima lettura il 20 marzo 2025, poi è passato alla Camera dei Deputati che lo ha modificato il 25 giugno 2025, infine è tornato al Senato per l’approvazione definitiva. Questo percorso bicamerale non è stato un ostacolo, ma ha consentito un perfezionamento del testo che tiene conto delle osservazioni di entrambi i rami del Parlamento.
Le Modifiche della Camera: Un Testo Più Equilibrato
Le modifiche apportate dalla Camera dei Deputati hanno rafforzato diversi aspetti del provvedimento. All’articolo 3 è stato aggiunto il limite del “non inquinamento” del dibattito democratico da interferenze illecite, rafforzando la tutela della sovranità dello Stato e dei diritti fondamentali dei cittadini. All’articolo 4 è stata precisata la disciplina del consenso genitoriale per i minori, allineandola completamente al GDPR e al Codice Privacy italiano.
All’articolo 5 sono stati inseriti riferimenti specifici alla robotica e al tessuto produttivo nazionale costituito principalmente da microimprese e PMI. All’articolo 6 è stata soppressa la previsione sui server nazionali, mentre all’articolo 8 è stata eliminata la condizione di approvazione preventiva da parte dei comitati etici per i trattamenti di dati sanitari, semplificando le procedure per la ricerca scientifica.
Il Problema degli Investimenti in IA
Uno degli aspetti critici emersi dal dibattito parlamentare riguarda il significativo ritardo italiano negli investimenti in intelligenza artificiale. I dati del CNEL evidenziano che solo il 4,7% delle imprese italiane con oltre 10 dipendenti investe attualmente in IA, con una concentrazione del 27,7% degli investimenti nelle grandi imprese oltre 250 dipendenti. Per il futuro prossimo, solo il 19,5% delle imprese intende investire in IA nei prossimi due anni, percentuale che scende al 16,9% per le imprese fino a 50 dipendenti.
Questi numeri rivelano un Paese in significativo ritardo competitivo, che rischia di non cogliere le opportunità della rivoluzione tecnologica. Il problema è particolarmente grave considerando che solo il 25,9% delle imprese italiane investe in formazione tecnologica e digitale, con il 70% di queste concentrate nelle grandi imprese. Per il futuro, sarà il 44,3% delle imprese a investire in formazione, ma l'81,5% di queste saranno aziende con oltre 250 dipendenti.
Un’Architettura Normativa Innovativa
La legge si struttura in 28 articoli distribuiti in sei capi tematici, ciascuno dedicato a un aspetto specifico della disciplina dell’intelligenza artificiale. Questa architettura riflette la volontà del legislatore di affrontare in modo organico e sistematico una tecnologia che permea ormai tutti gli aspetti della vita sociale ed economica.
L’Allineamento con l’AI Act Europeo: Una Scelta Strategica
Una delle caratteristiche più significative della legge italiana è il suo perfetto allineamento con il regolamento europeo (UE) 2024/1689, noto come AI Act, approvato dal Parlamento europeo il 13 giugno 2024. L’articolo 1, comma 2, stabilisce esplicitamente che “le disposizioni della presente legge si interpretano e si applicano conformemente al regolamento (UE) 2024/1689”, mentre l’articolo 3, comma 5, precisa che “la presente legge non produce nuovi obblighi rispetto a quelli previsti dal regolamento (UE) 2024/1689”.
Questa scelta non è meramente formale ma rappresenta una strategia di armonizzazione europea che posiziona l’Italia come il primo Paese UE con un quadro normativo nazionale pienamente compatibile con la disciplina europea. L’AI Act, che entrerà in vigore gradualmente tra il 2025 e il 2027, stabilisce un sistema di classificazione dei rischi per i sistemi di IA e impone obblighi proporzionali ai fornitori e utilizzatori. La legge italiana anticipa e facilita questo processo, creando fin da subito le strutture e le procedure necessarie per l’implementazione del regolamento europeo.
Il rapporto tra normativa nazionale e europea è particolarmente evidente negli articoli 20 e 24. L’articolo 20 designa AgID e ACN come autorità nazionali per l’intelligenza artificiale “ferma restando l’attribuzione alla Banca d’Italia, alla CONSOB e all’IVASS del ruolo di autorità di vigilanza del mercato ai sensi e secondo quanto previsto dall’articolo 74, paragrafo 6, del regolamento (UE) 2024/1689”. L’articolo 24, che contiene la delega più ampia al Governo, ha come obiettivo specifico “l’adeguamento della normativa nazionale al regolamento (UE) 2024/1689”.
L’approccio italiano si distingue per la sua natura complementare piuttosto che sovrapponibile alla normativa europea. Mentre l’AI Act si concentra sui requisiti tecnici e sugli obblighi per i sistemi ad alto rischio, la legge italiana fornisce un quadro di principi, istituzioni e procedure che facilita l’applicazione pratica della disciplina europea nel contesto nazionale. Questa strategia di “anticipazione normativa” permette alle imprese e alle istituzioni italiane di prepararsi adeguatamente all’entrata in vigore dell’AI Act, riducendo i costi di adeguamento e massimizzando i benefici competitivi.
Capo I: I Principi Fondamentali
Il primo capo stabilisce principi e finalità, ponendo al centro la dimensione antropocentrica dell’intelligenza artificiale. L’articolo 1 definisce chiaramente l’ambito di applicazione della legge, che comprende la ricerca, sperimentazione, sviluppo, adozione e applicazione di sistemi e modelli di IA. Il legislatore è stato esplicito: l’obiettivo è promuovere un utilizzo “corretto, trasparente e responsabile, in una dimensione antropocentrica” dell’intelligenza artificiale.
L’articolo 3 rappresenta il cuore filosofico della legge italiana. I principi generali non sono mere enunciazioni retoriche, ma criteri operativi vincolanti. La ricerca e lo sviluppo di sistemi IA devono avvenire nel rispetto dei diritti fondamentali costituzionali, del diritto UE e dei principi di trasparenza, proporzionalità, sicurezza, protezione dei dati personali, riservatezza, accuratezza, non discriminazione, parità dei sessi e sostenibilità.
Particolarmente significativo è il comma 3 dell’articolo 3, che impone che i sistemi IA siano sviluppati e applicati “nel rispetto dell’autonomia e del potere decisionale dell’uomo”. La legge richiede espressamente che sia assicurata “la sorveglianza e l’intervento umano”. Questo principio di supervisione umana diventa un obbligo giuridico vincolante per tutti i soggetti che sviluppano o utilizzano sistemi di IA.
Il comma 4 introduce una disposizione di particolare rilevanza costituzionale: l’utilizzo di sistemi di IA non deve pregiudicare “lo svolgimento con metodo democratico della vita istituzionale e politica”. La versione finale rafforza questa previsione aggiungendo la tutela della “libertà del dibattito democratico da interferenze illecite” e la protezione degli “interessi della sovranità dello Stato” e dei “diritti fondamentali di ogni cittadino riconosciuti dagli ordinamenti nazionale ed europeo”.
Protezione dei Dati e Tutela dei Minori
L’articolo 4 si occupa specificamente della protezione dei dati personali e dell’informazione. Il legislatore ha prestato particolare attenzione ai minori: per gli under 14 è sempre necessario il consenso di chi esercita la responsabilità genitoriale, sia per l’accesso alle tecnologie IA sia per il conseguente trattamento dei dati personali. I minori tra 14 e 18 anni possono esprimere autonomamente il consenso, purché le informazioni siano “facilmente accessibili e comprensibili”.
La versione definitiva specifica che il consenso parentale deve rispettare quanto previsto dal regolamento GDPR 2016/679 e dal decreto legislativo 196/2003, eliminando ogni possibile dubbio interpretativo sulla normativa applicabile.
Sviluppo Economico e Sovranità Tecnologica
L’articolo 5 delinea una strategia di sviluppo economico che mira a fare dell’Italia un protagonista europeo dell’IA. Lo Stato e le autorità pubbliche devono promuovere l’utilizzo dell’IA come strumento per migliorare l’interazione uomo-macchina nei settori produttivi, aumentare la produttività e avviare nuove attività economiche.
La versione finale ha arricchito questa previsione con riferimenti specifici alla robotica e al sostegno al tessuto produttivo nazionale, “costituito principalmente di microimprese e di piccole e medie imprese”. Questa modifica riflette la struttura peculiare dell’economia italiana e l’esigenza di non lasciare indietro le realtà imprenditoriali più piccole nella transizione digitale.
Particolarmente interessante è la lettera d) del comma 1, che indirizza le piattaforme di e-procurement delle pubbliche amministrazioni a privilegiare “quelle soluzioni che garantiscono la localizzazione e l’elaborazione dei dati strategici presso data center posti nel territorio nazionale”. Questa disposizione introduce un elemento di sovranità digitale che bilancia l’apertura al mercato globale con l’esigenza di mantenere il controllo sui dati più sensibili.
Sicurezza e Difesa: Un Equilibrio Delicato
L’articolo 6 affronta uno dei nodi più delicati: il rapporto tra intelligenza artificiale e sicurezza nazionale. Il legislatore ha scelto un approccio di esclusione selettiva: le attività svolte per scopi di sicurezza nazionale dagli organismi di intelligence, quelle di cybersicurezza dell’ACN, le operazioni militari delle Forze Armate e le attività delle Forze di polizia per la sicurezza nazionale sono escluse dall’ambito di applicazione della legge.
Tuttavia, questa esclusione non significa anarchia normativa. Anche questi settori devono rispettare i diritti fondamentali e le libertà costituzionali, e il comma 3 prevede l’adozione di specifici regolamenti per definire le modalità di applicazione dei principi della legge anche a queste attività particolari.
Capo II: Le Applicazioni Settoriali
La Rivoluzione Sanitaria: Ricerca e Cura Nell’Era dell’IA
Il settore sanitario rappresenta l’ambito più innovativo e complesso disciplinato dalla legge. L’articolo 7 stabilisce i principi generali per l’uso dell’IA in ambito sanitario, chiarendo che l’IA deve contribuire al miglioramento del sistema sanitario, alla prevenzione, diagnosi e cura delle malattie, sempre nel rispetto dei diritti della persona e della protezione dei dati.
Il comma 2 introduce un importante divieto di discriminazione: i sistemi IA non possono “selezionare e condizionare l’accesso alle prestazioni sanitarie secondo criteri discriminatori”. Il comma 3 stabilisce il diritto del paziente di essere informato sull’impiego di tecnologie IA, mentre il comma 5 precisa che l’IA costituisce sempre e solo “un supporto nei processi di prevenzione, diagnosi, cura e scelta terapeutica”, lasciando impregiudicata la decisione finale del medico.
Ricerca Scientifica: Un Nuovo Paradigma
L’articolo 8 rappresenta probabilmente la disposizione più rivoluzionaria dell’intera legge. Dichiara di “rilevante interesse pubblico” i trattamenti di dati personali, anche sensibili, eseguiti per la ricerca e sperimentazione scientifica nella realizzazione di sistemi IA in ambito sanitario. Questa dichiarazione si basa sugli articoli 32 e 33 della Costituzione (diritto alla salute e libertà di ricerca scientifica) e sull’articolo 9, paragrafo 2, lettera g), del GDPR.
I soggetti legittimati sono chiaramente identificati: soggetti pubblici e privati senza scopo di lucro, Istituti di ricovero e cura a carattere scientifico (IRCCS), e soggetti privati operanti nel settore sanitario nell’ambito di progetti di ricerca a cui partecipano soggetti pubblici, privati non profit o IRCCS.
Il comma 2 introduce una deroga significativa al principio del consenso informato: è sempre autorizzato l’uso secondario di dati personali privi di elementi identificativi diretti, anche appartenenti alle categorie sensibili, “senza ulteriore consenso dell’interessato ove inizialmente previsto dalla legge”. Questa disposizione rivoluziona il paradigma tradizionale della ricerca biomedica, consentendo l’utilizzo di enormi masse di dati già raccolti per finalità terapeutiche.
Il comma 3 va oltre, consentendo sempre “il trattamento per finalità di anonimizzazione, pseudonimizzazione o sintetizzazione dei dati personali” anche sensibili, previa semplice informativa all’interessato. L’AGENAS può stabilire e aggiornare linee guida per queste procedure, tenendo conto degli standard internazionali.
La procedura di controllo prevede la comunicazione al Garante Privacy con tutte le informazioni richieste dal GDPR. Decorsi 30 giorni dalla comunicazione, i trattamenti possono iniziare se il Garante non ha disposto un provvedimento di blocco.
La Piattaforma Nazionale di IA Sanitaria
L’articolo 10 introduce una delle innovazioni più ambiziose: l’istituzione di una piattaforma nazionale di intelligenza artificiale sanitaria. Inserendo un nuovo articolo 12-bis nel decreto-legge 179/2012, la legge prevede che il Ministro della Salute, di concerto con l’Autorità delegata per l’innovazione tecnologica e per la cybersicurezza, disciplini le soluzioni di IA per il supporto al sistema sanitario.
La piattaforma, la cui progettazione, realizzazione e titolarità sono attribuite all’AGENAS in qualità di “Agenzia nazionale per la sanità digitale”, erogherà servizi di supporto non vincolanti ai professionisti sanitari per la presa in carico della popolazione, ai medici nella pratica clinica quotidiana, e agli utenti per l’accesso ai servizi sanitari delle Case della Comunità.
Il Mondo del Lavoro: Dignità e Innovazione
Gli articoli 11 e 12 disciplinano l’impatto dell’IA sul mondo del lavoro con un approccio che bilancia innovazione e tutela dei diritti. L’articolo 11 stabilisce che l’IA deve essere impiegata per “migliorare le condizioni di lavoro, tutelare l’integrità psicofisica dei lavoratori, accrescere la qualità delle prestazioni lavorative e la produttività”.
Il comma 2 introduce principi inderogabili: l’utilizzo dell’IA in ambito lavorativo deve essere “sicuro, affidabile, trasparente” e non può svolgersi “in contrasto con la dignità umana” né violare la riservatezza dei dati personali. Il datore di lavoro è tenuto a informare il lavoratore dell’utilizzo dell’IA secondo le modalità previste dall’articolo 1-bis del decreto legislativo 152/1997.
L’articolo 12 istituisce presso il Ministero del Lavoro un Osservatorio specializzato sull’adozione di sistemi di IA nel mondo del lavoro. Questo organismo ha compiti strategici: definire una strategia per l’utilizzo dell’IA in ambito lavorativo, monitorarne l’impatto sul mercato del lavoro, identificare i settori maggiormente interessati e promuovere la formazione di lavoratori e datori di lavoro.
Professioni Intellettuali: IA come Strumento, Non Sostituto
L’articolo 13 disciplina l’utilizzo dell’IA nelle professioni intellettuali con una filosofia chiara: l’intelligenza artificiale può essere utilizzata solo per “attività strumentali e di supporto all’attività professionale” e sempre “con prevalenza del lavoro intellettuale oggetto della prestazione d’opera”.
Il comma 2 introduce un obbligo di trasparenza specifico: per assicurare il rapporto fiduciario tra professionista e cliente, le informazioni relative ai sistemi IA utilizzati devono essere comunicate al destinatario della prestazione “con linguaggio chiaro, semplice ed esaustivo”.
La Pubblica Amministrazione Intelligente
L’articolo 14 delinea una visione ambiziosa per la modernizzazione della PA attraverso l’IA. Le pubbliche amministrazioni devono utilizzare l’intelligenza artificiale per “incrementare l’efficienza della propria attività, ridurre i tempi di definizione dei procedimenti e aumentare la qualità e la quantità dei servizi erogati ai cittadini e alle imprese”.
L’utilizzo deve avvenire sempre assicurando “la conoscibilità del funzionamento e la tracciabilità dell’utilizzo”. Il comma 2 stabilisce un principio fondamentale: l’IA può essere utilizzata solo “in funzione strumentale e di supporto all’attività provvedimentale”, sempre “nel rispetto dell’autonomia e del potere decisionale della persona che resta l’unica responsabile dei provvedimenti e dei procedimenti”.
Giustizia e IA: Garanzie Costituzionali Inviolabili
L’articolo 15 affronta uno dei temi più delicati: l’utilizzo dell’IA nell’attività giudiziaria. Il comma 1 stabilisce un principio assoluto e inderogabile: nei casi di impiego dei sistemi IA nell’attività giudiziaria è “sempre riservata al magistrato ogni decisione sull’interpretazione e sull’applicazione della legge, sulla valutazione dei fatti e delle prove e sull’adozione dei provvedimenti”.
Il comma 2 consente l’utilizzo dell’IA per l’organizzazione dei servizi di giustizia, la semplificazione del lavoro giudiziario e le attività amministrative accessorie, ma sempre sotto il controllo e la responsabilità umana. Il comma 3 introduce una procedura di controllo preventivo: fino alla completa attuazione dell’AI Act europeo, la sperimentazione negli uffici giudiziari deve essere autorizzata dal Ministero della Giustizia, sentite le autorità nazionali competenti.
Il comma 4 prevede un importante investimento in formazione per magistrati e personale amministrativo, con attività didattiche specifiche sull’IA che includano formazione digitale, acquisizione di competenze e sensibilizzazione su benefici e rischi.
Capo III: Strategia Nazionale e Governance
Le Deleghe Legislative: Un Cantiere Normativo Complesso
Gli articoli 16 e 24 conferiscono al Governo deleghe ampie per completare il quadro regolamentare. L’articolo 16 riguarda specificamente la disciplina di “dati, algoritmi e metodi matematici per l’addestramento di sistemi di intelligenza artificiale”. La versione finale precisa che questa disciplina non deve creare “obblighi ulteriori, negli ambiti soggetti al regolamento (UE) 2024/1689, rispetto a quanto già ivi stabilito”.
I principi e criteri direttivi prevedono l’individuazione delle ipotesi per le quali è necessario dettare il regime giuridico, strumenti di tutela risarcitoria e inibitoria, un apparato sanzionatorio per le violazioni, e l’attribuzione alle sezioni specializzate in materia di impresa delle relative controversie.
La Delega per l’Adeguamento all’AI Act
L’articolo 24 contiene la delega più ampia, finalizzata all’adeguamento della normativa nazionale al regolamento europeo. I principi e criteri direttivi sono estremamente dettagliati e coprono tutti gli aspetti dell’implementazione dell’AI Act, dall’attribuzione di poteri alle autorità nazionali alle modifiche della normativa bancaria e finanziaria, dai percorsi di formazione alle discipline specifiche per l’attività di polizia.
Governance Multi-Livello dell’Innovazione
L’articolo 19 istituisce un sistema di governance dell’IA articolato su più livelli. La strategia nazionale è predisposta dalla struttura della Presidenza del Consiglio competente per l’innovazione tecnologica, d’intesa con le autorità nazionali e sentiti diversi ministeri competenti. La strategia deve essere approvata con cadenza almeno biennale dal CITD (Comitato Interministeriale per la Transizione Digitale).
I commi 6, 7 e 8, aggiunti dalla Camera, istituiscono un nuovo Comitato di coordinamento presieduto dal Presidente del Consiglio che coordina l’azione degli enti e organismi nazionali pubblici o privati soggetti a vigilanza o destinatari di finanziamento pubblico che operano nel campo dell’innovazione digitale e dell’IA.
Le Autorità Nazionali: Un Sistema Duale Sofisticato
L’articolo 20 definisce il sistema di governance dell’IA, designando AgID e ACN come autorità nazionali competenti. AgID assume il ruolo di autorità di promozione dell’innovazione, responsabile per le procedure di notifica, valutazione, accreditamento e monitoraggio. ACN diventa l’autorità di vigilanza del mercato, con poteri ispettivi e sanzionatori, e il punto di contatto unico con le istituzioni UE.
Il comma 1, lettera c), prevede che AgID e ACN gestiscano congiuntamente “spazi di sperimentazione finalizzati alla realizzazione di sistemi di intelligenza artificiale conformi alla normativa”. Questi regulatory sandbox sono strumenti essenziali per consentire l’innovazione in un ambiente controllato.
Investimenti Strategici: Il Miliardo per l’IA
L’articolo 23 autorizza investimenti fino a un miliardo di euro nel capitale di rischio di imprese operanti nei settori dell’IA, cybersicurezza e tecnologie quantistiche. Questi investimenti utilizzano la struttura del Fondo di sostegno al venture capital istituito nel 2018, beneficiando PMI innovative e imprese non PMI con “elevato potenziale di sviluppo” per promuoverne lo sviluppo come “campioni tecnologici nazionali”.
Capo IV: Tutela degli Utenti e Proprietà Intellettuale
Diritto d’Autore nell’Era dell’IA: Un Equilibrio Innovativo
L’articolo 25 affronta la questione complessa della tutela del diritto d’autore per le opere create con l’ausilio dell’IA. Le modifiche alla legge 633/1941 specificano che sono protette le opere dell’ingegno “umano” create “anche laddove create con l’ausilio di strumenti di intelligenza artificiale, purché costituenti risultato del lavoro intellettuale dell’autore”.
Questa formulazione riconosce che l’IA può essere uno strumento creativo, ma mantiene saldamente in capo all’essere umano la paternità intellettuale dell’opera. Il nuovo articolo 70-septies regola l’estrazione di testi e dati da opere disponibili in rete per l’addestramento di modelli di IA, garantendo che questa attività sia svolta nel rispetto dei diritti degli autori.
Capo V: Le Nuove Fattispecie Penali
Aggravanti Generali e Reati Specifici
L’articolo 26 introduce un apparato sanzionatorio specifico per i reati commessi utilizzando sistemi di IA. La modifica più generale è l’aggiunta dell’aggravante prevista dal nuovo numero 11-decies dell’articolo 61 del codice penale per reati commessi “mediante l’impiego di sistemi di intelligenza artificiale, quando gli stessi, per la loro natura o per le modalità di utilizzo, abbiano costituito mezzo insidioso, ovvero quando il loro impiego abbia comunque ostacolato la pubblica o la privata difesa, ovvero aggravato le conseguenze del reato”.
Il Nuovo Reato dei Deepfake
La novità più significativa è l’introduzione dell’articolo 612-quater del codice penale, che punisce con reclusione da uno a cinque anni chiunque cagiona “un danno ingiusto ad una persona, cedendo, pubblicando o altrimenti diffondendo, senza il suo consenso, immagini, video o voci falsificati o alterati mediante l’impiego di sistemi di intelligenza artificiale e idonei a indurre in inganno sulla loro genuinità”.
Il nuovo reato copre i deepfake e altre forme di manipolazione digitale. È punibile a querela della persona offesa, ma si procede d’ufficio quando è commesso nei confronti di minori, persone incapaci o pubbliche autorità a causa delle funzioni esercitate. Questa norma rappresenta una novità assoluta nel panorama europeo e internazionale, costituendo una risposta legislativa tempestiva agli scandali che hanno coinvolto la creazione illecita di contenuti pornografici.
I dati evidenziano l’urgenza di questa misura: con l’avvento delle tecniche di intelligenza artificiale generativa, i casi di pornografia falsificata sono aumentati del 500%, con il 99% delle vittime costituito da donne. L’introduzione di questa fattispecie penale rappresenta un passo importante nella tutela della dignità delle persone nell’era digitale.
Aggravanti per Reati Specifici
L’articolo introduce anche aggravanti specifiche: l’articolo 294 del codice penale (falsa testimonianza) prevede ora reclusione da due a sei anni se l’inganno è posto in essere mediante sistemi IA. Analogamente, l’articolo 2637 del codice civile (informazioni false al mercato) e l’articolo 185 del TUF (abuso di informazioni privilegiate) prevedono aggravamenti di pena quando i reati sono commessi utilizzando IA.
Sostenibilità Finanziaria e Coordinamento
Clausola di Invarianza e Sostenibilità
L’articolo 27 stabilisce la clausola di invarianza finanziaria: dall’attuazione della legge, ad esclusione dell’articolo 21, non devono derivare nuovi o maggiori oneri per la finanza pubblica. L’unica eccezione è l’articolo 21, che autorizza 300.000 euro annui per il 2025 e 2026 per progetti sperimentali del Ministero degli Affari Esteri.
Coordinamento con la Normativa Esistente
L’articolo 28 contiene disposizioni di coordinamento che chiariscono il rapporto tra la nuova legge e la normativa preesistente. La modifica all’articolo 7 del decreto-legge 82/2021 estende le possibilità di collaborazione dell’ACN con soggetti privati, distinguendo tra quelli europei (sempre consentiti) e quelli extraeuropei (consentiti per Paesi NATO o con accordi specifici, previa autorizzazione del Presidente del Consiglio).
Prospettive Future e Sfide Applicative
I Decreti Attuativi: Un Anno di Intenso Lavoro
L’entrata in vigore della legge, prevista per 15 giorni dopo la pubblicazione in Gazzetta Ufficiale, aprirà un anno intenso di lavoro per il Governo. Le deleghe legislative devono essere esercitate entro 12 mesi, con procedure che prevedono pareri parlamentari, della Conferenza Unificata e del Garante Privacy.
I decreti dovranno coprire ambiti tecnici complessi: dalla disciplina algoritmi alla piena implementazione dell’AI Act, dalle nuove fattispecie penali alla regolamentazione dei dati sanitari. Il rischio di ritardi è concreto, considerando la complessità tecnica e la necessità di bilanciare innovazione e tutele.
L’Italia come Laboratorio Europeo
Con questa legge, l’Italia si propone come laboratorio europeo dell’innovazione responsabile nell’IA. Come ha dichiarato il Sottosegretario Butti: “L’Italia è il primo Paese UE con un quadro nazionale pienamente allineato all’AI Act. Investite in Italia. Troverete una governance affidabile, regole trasparenti e un ecosistema pronto a sostenere progetti concreti”.
Questa ambizione dovrà essere sostenuta da un’implementazione efficace e da investimenti significativi in formazione e competenze. Il successo dipenderà dalla capacità di trasformare i principi della legge in pratiche operative che favoriscano davvero l’innovazione senza compromettere i diritti fondamentali.
Conclusioni
La legge italiana sull’IA non è solo un testo normativo: è una scommessa sul futuro del Paese, sulla sua capacità di governare l’innovazione tecnologica mantenendo saldi i principi costituzionali e i valori democratici. Il successo di questa scommessa dipenderà dalla qualità dell’implementazione e dalla capacità di tutti gli attori coinvolti - istituzioni, imprese, cittadini - di cogliere le opportunità offerte da questo nuovo quadro normativo.
In un mondo sempre più digitale, l’Italia ha scelto di non subire passivamente i cambiamenti tecnologici, ma di governarli attivamente, bilanciando innovazione e tutele, competitività e sicurezza, efficienza e trasparenza. La strada è ancora lunga, ma il primo passo è stato compiuto con determinazione e visione strategica, ponendo le basi per fare del nostro Paese un protagonista responsabile dell’era dell’intelligenza artificiale.
La legge posiziona l’Italia come hub europeo per l’innovazione responsabile, creando le basi per uno sviluppo dell’IA antropocentrico, sicuro e competitivo. Con l’entrata in vigore imminente e l’avvio del processo di implementazione, inizia ora la fase più delicata: trasformare questa visione normativa in una realtà operativa che faccia dell’Italia un modello di riferimento per l’intero continente europeo.
Hashtag correlati
#ArtificialIntelligenceItaly #AILawItaly #ItalianAIAct #HumanCentricAI #ResponsibleInnovation #AIRegulation #ItalianParliament #DigitalSovereignty #HealthcareAI #AIandWork #AIinJustice #DigitalGovernment #DeepfakeLaw #DigitalRights #AIPrivacy #AIAct #EuropeanAI #DigitalEU #TechRegulation #AIGovernance #LegalTech #HealthTech #GovTech #FutureOfWork #DigitalTransformation #Industry40 #AI2025 #DigitalFuture #InnovativeItaly #TechNews #DigitalRights #ItalianTech #StartupAI #VentureCapitalItaly #RegulatorySandbox #ScientificResearch #AIethics #TechPolicy #DataProtection #CyberSecurity #AICompliance #PublicAdministration #ItalyInnovation #EUTech #AIStrategy #TechLeadership