Come abbiamo annunciato nel nostro post su LinkedIn l'11/02/2025 la Commissione Europea ha pubblicato il programma di lavoro della Commissione per il 2025 con il quale ha ritirato la “Proposta di DIRETTIVA DEL PARLAMENTO EUROPEO E DEL CONSIGLIO sull’adeguamento delle norme sulla responsabilità civile extracontrattuale all’intelligenza artificiale (AI Liability)” (Allegato IV: Ritiri - n. 32) con i seguenti Motivi del ritiro:

➡️ «Nessun accordo prevedibile - la Commissione valuterà se presentare un’altra proposta o scegliere un altro tipo di approccio».

📍 Quindi, al momento, sulla responsabilità AI, rimane solo la “Proposta di Direttiva del Parlamento Europeo e del Consiglio sulla responsabilità per danno da prodotti difettosi (Product Liability Directive - PLD Proposal)”.

Abbiamo già approfondito l’argomento in uno dei nostri ultimi articoli e riportato qui alcuni punti cruciali.

Dal punto di vista della protezione dei dati, sono note le opinioni del Garante europeo della protezione dei dati (GEPD) espresse nel parere 42/2023 del GEPD sulla proposta di due direttive sulle norme di responsabilità per l’IA.

L’argomento è discusso perché, da un punto di vista giuridico, non sarebbe ammissibile riconoscere la responsabilità di una macchina. Infatti, la responsabilità è attribuibile a un essere umano, ma gli ordinamenti giuridici non disciplinano la responsabilità delle macchine o dei sistemi di intelligenza artificiale.

I sistemi di intelligenza artificiale operano e si comportano come sono sempre stati progettati e programmati dagli esseri umani.

Non escludiamo che i sistemi di intelligenza artificiale o le macchine possano essere progettati e programmati da altre macchine.

Supponiamo che la questione della responsabilità dei sistemi di intelligenza artificiale possa essere affrontata senza particolari vincoli a livello europeo, grazie alla sua caratteristica sovranazionalità. In tal caso, alcune criticità potrebbero essere fondamentali in ambito nazionale, dove la natura del sistema giuridico regola la responsabilità.

Se la proposta di direttiva di cui sopra venisse approvata, i singoli Stati membri sarebbero obbligati a recepirla. In fase di recepimento, il legislatore nazionale dovrà considerare la natura giuridica dell’istituto della responsabilità, la sua collocazione e la ratio della norma.

L’introduzione a livello nazionale di un sistema di responsabilità (dell’IA) o di una macchina potrebbe entrare in conflitto non solo con la disciplina esistente, ma proprio con la qualificazione giuridica della responsabilità stessa, che potrebbe essere incompatibile per sua natura e per la sua ratio di fondo con l’ordinamento giuridico. Tutto ciò comporterebbe una profonda modifica dell’intero istituto della responsabilità civile e penale.

Inoltre, qualcuno solleva l’opportunità di lasciare la responsabilità a venditori e distributori.

In effetti, la Commissione europea ha sempre considerato la responsabilità nei processi legislativi, mutuando i concetti dai sistemi di Common Law. Si tratta di due concetti giuridicamente diversi. In realtà, nei sistemi di Common Law esiste una terza ipotesi di responsabilità: la responsabilità.

Al contrario, i sistemi di civil law conoscono un solo tipo di responsabilità.

Il GDPR ne è un esempio, perché chiede esplicitamente la responsabilizzazione, lasciando appunto l’onere della conformità al Regolamento UE 2016/679 al titolare e al responsabile del trattamento.

Quindi, è possibile, ma le scelte vanno nella direzione di una politica che individua le soluzioni che ritiene giuridicamente più appropriate e della conseguente necessità di valutare i processi di standardizzazione.


If this resource was helpful, you could contribute by

Buy me a coffee

Or donate via

Liberapay


Follow us on Mastodon

Stay tuned!