Intelligenza artificiale: qualche spunto di Diritto

Di Francesca Sutti, partner Studio Wlex.

18.07.2022

Intelligenza artificiale: qualche spunto di Diritto

Con il termine intelligenza artificiale si indica “quel settore dell'informatica che studia la possibilità di costruire computer in grado di riprodurre il funzionamento di alcune capacità della mente umana o, nel caso della cosiddetta intelligenza artificiale forte, addirittura del pensiero umano”. Così la Treccani.

Qualcuno ci crede, qualcuno pensa che sia un fenomeno destinato a esaurirsi in breve tempo. Qualcuno, come in Life 3.0 di Max Tegmark, immagina intelligenza artificiale prometheus in grado di produrre esso stesso intelligenze artificiali sempre migliori. Se ci pensiamo, l'ipotesi non è del tutto peregrina.

La IA, infatti, applica il cd. machine learning, cioè impara dalle esperienze che fa, adattando di conseguenza il suo comportamento in base agli input che riceve. Prendiamo, per esempio, una IA che redige modelli contrattuali, contenuti e testo verranno, di volta in volta, adattati conformemente alle interazioni coi suoi utilizzatori. Il testo originale del contratto, quello redatto da un legale, per intenderci, evolverà e si modificherà, divenendo un elaborato nuovo e slegato dai precedenti.  Questa capacità di autodeterminarsi in maniera del tutto autonoma rende il comportamento della IA non prevedibile in tutto o in parte.

Ma se la macchina poi si sbaglia e crea un danno, a chi possono rivolgersi le vittime? All’avvocato che ha scritto il parere originario? Ai soggetti facenti parte della catena del valore che ha sviluppato intelligenza artificiale? All’Avatar con cui si è interloquito? (Quest’ultima ipotesi non è una battuta).

E se il pregiudizio derivi dalla interazione in cloud tra due o più sistemi di intelligenza artificiale?

Il tradizionale sistema di imputazione della responsabilità civile entra in crisi davanti a queste nuove tecnologie. È proprio il   principio costituzionale di personalità della responsabilità penale (art. 27, c. 1, Cost) a soffrine. Quel che a tutti è chiaro è che la disciplina che oggi regola la responsabilità per i danni causati da prodotti difettosi e che si basa sulla corrispondente direttiva europea, ha resistito trent'anni e mal si adatta a molteplici innovazioni tecnologiche. Non aiuta nemmeno la regolamentazione europea relativa all'esercizio di attività particolare, nonché l’art. 2050 del c.c. sull’esercizio delle attività pericolose.

Ne sono ben consapevoli le istituzioni comunitarie che si sono infatti dedicate a disegnare una nuova regolamentazione che dovrebbe, il condizionale d'obbligo, entrare in vigore nella seconda metà del 2022.

Tra i temi affrontati vi è quello della trasparenza, sollevato nelle raccomandazioni del parlamento europeo.[1] Le IA, infatti, spesso favoriscono un’opacità che potrebbe rendere estremamente oneroso, se non impossibile, identificare chi gestisce il rischio associato al sistema della stessa IA. La maggior parte delle volte si è all’oscuro di quale algoritmo, informazione o input sia stato utilizzato e quale abbia creato il danno, con buona pace del principio di causalità tra il danno e il comportamento pregiudizievole.

Vanno, dunque, poste in essere tutte le misure idonee a garantire la massima sicurezza possibile. Anche se inadatta a disciplinare pienamente l’intelligenza artificiale, si applica comunque la direttiva 85/374 CEE. [2]

Tanto che le istituzioni europee chiedono di considerare la copertura assicurativa.

Il progetto di regolamento della Commissione[3] ha adottato un approccio basato sul rischio. Ha approntato un sistema che si basa su quattro diversi livelli di rischio: al vertice troviamo quello inaccettabile, che proibisce quei sistemi di IA che ledono i diritti fondamentali delle persone fisiche (es. pratiche come il social scoring). Al secondo posto si classifica il rischio elevato, che richiede un controllo da parte dell’operatore, per cui si intende qualsiasi azione che possa influenzare il funzionamento dell’IA prima che il sistema possa essere immesso sul mercato (es. sistemi che assistono giudici o chirurghi). A tal proposito, avete mai sentito parlare del caso Loomis alla Corte Suprema del Wisconsin? Attraverso l’algoritmo Compas, software creato per prevedere il rischio di recidiva e per identificare le necessità dell’individuo in singole aree (es. abuso di sostanze stupefacenti), vennero elaborati i dati dell’imputato Loomis, fermato dalla polizia del Wisconsin, USA, a bordo di un’auto precedentemente utilizzata per una sparatoria. Dal risultato dell’algoritmo emerse un elevato rischio di recidività per l’imputato. Dunque, lo strumento venne utilizzato dalla Corte come uno degli elementi su cui determinare la pena, negando a Loomis la libertà vigilata. Caso analogo ma con risultato differente fu quello di Hercules Shepherd Jr., arrestato per possesso di cocaina. Questa volta, il verdetto dell’algoritmo attestò la scarsa probabilità per l’imputato di commettere un altro crimine, permettendo a Shepherd di essere rilasciato su cauzione.

Il terzo livello è rappresentato dal rischio limitato, che comprende quei sistemi soggetti a obblighi di trasparenza minimi (es. chatbot). Nell’ultima categoria rientrano, infine, quei sistemi di IA a rischio minimo o assente, utilizzati senza particolari obblighi giuridici perché ritenuti innocui (es. filtri antispam).

Con l’intento di creare certezza giuridica ironizzare le varie normative nazionali, il Regolamento europeo ha scelto di individuare chiaramente il soggetto responsabile:

“(53) È opportuno che una specifica persona fisica o giuridica, definita come il fornitore, si assuma la responsabilità dell'immissione sul mercato o della messa in servizio di un sistema di IA ad alto rischio, a prescindere dal fatto che tale persona fisica o giuridica sia la persona che ha progettato o sviluppato il sistema”.

Vanno comunque poste in essere tutte le misure idonee a garantire la massima sicurezza possibile. Anche se non anche se inadatta a disciplinare pienamente intelligenza artificiale, si applica comunque la direttiva numero

Nei propositi delle istituzioni comunitarie il Regolamento dovrebbe entrare in vigore nella seconda parte del 202, ma non potrà essere pienamente operativo prima del 2024.

 

 


[1] Risoluzione del Parlamento europeo del 20 ottobre 2020 recante raccomandazioni alla Commissione sulla legge sui servizi digitali: migliorare il funzionamento del mercato unico (2020/2014(INL)).

[2] La direttiva stabilisce il principio della responsabilità indipendentemente dalla colpa, applicabile ai produttori europei. Se un prodotto difettoso provoca danni al consumatore, il produttore può essere responsabile anche senza negligenza o colpa da parte sua.

[3] Commissione Europea Brruxelles, 21.4.2021, proposta di regolamento del parlamento europeo e del consiglio che stabilisce regole armonizzate.

TAGS

WLex , Francesca Sutti




TopLegal Review edizione digitale
ENTRA | ABBONATI