Natura giuridica e valore probabilistico del “danno significativo” nell’uso dell’Intelligenza Artificiale

Natura giuridica e valore probabilistico del “danno significativo” nell’uso dell’Intelligenza Artificiale

di Michele Di Salvo

La Commissione Europea, il 6 febbraio scorso, ha fornito chiarimenti interpretativi e indicazioni operative.

In questo articolo approfondisco il confronto tra la nozione di “danno significativo”, prevista dall’Unione europea, e quella di “danno ingiusto”, del Codice civile italiano.

La distinzione tra danno evento e danno conseguenza si correla direttamente alla differenza tra causalità materiale e causalità giuridica. Il legame di causalità richiede una chiara separazione: da una parte vi è la relazione tra la condotta e l’evento dannoso (causalità materiale), necessaria per stabilire una responsabilità; dall’altra vi è il collegamento tra l’evento e il danno subito, necessario a identificare le conseguenze dannose e a definire i limiti del danno risarcibile. 

Ove ricorra la causalità materiale è possibile parlare di illecito, ove, invece, sussista anche causalità giuridica è configurabile anche il danno da risarcire.

Nella determinazione della causalità giuridica, sia per stabilire l’esistenza sia l’entità del danno, si applica il criterio delineato dall’articolo 1223 c.c. secondo il quale deve esistere una relazione causale tra l’evento e il danno, tale che la perdita patrimoniale risarcibile sia direttamente attribuibile all’evento stesso (è il cd. “nesso”).

Per essere considerata risarcibile, la perdita patrimoniale deve essere conseguenza immediata e diretta dell’evento. Tuttavia la chiarezza delle regole giuridiche applicabili si attenua quando si definisce l’ambito concreto del danno risarcibile.

Se queste definizioni sono ormai consolidate nell’ordinamento nazionale, la nozione di danno significativo rimane relativamente nuova, essendo emersa principalmente con l’introduzione di recenti Regolamenti europei.

Sembra quasi si sia introdotto nell’ordinamento un ulteriore filtro nella comprensione della causalità giuridica, includendo una dimensione matematica a riflessi economici-finanziari.

Va segnalato incidentalmente che la restrizione della discrezionalità in direzione di una formulazione quasi matematica in termini di danno e risarcimenti è una tendenza generale dell’ordinamento eurounitario, con lo scopo, nemmeno solo implicito, di omologare il quadro per dare (o cercare di dare) certezza di uniformità a fatti omogenei in paesi eterogenei.

In tale contesto, l’articolo 5 dell’AI Act mette in luce due scenari specifici nei quali le pratiche di intelligenza artificiale sono proibite.

Il primo riguarda l’impiego di tecniche subliminali che operano senza la consapevolezza dell’utente o l’uso di tecniche deliberatamente manipolative o ingannevoli, che inducono gli utenti a prendere decisioni che non avrebbero altrimenti preso.

Il secondo si riferisce all’utilizzo di sistemi di IA che sfruttano le vulnerabilità specifiche di individui o gruppi, legate a fattori quali età, disabilità o condizioni socio-economiche particolari, con l’intento o l’effetto di alterare significativamente il loro comportamento in modi che possano causare o ragionevolmente causare un danno significativo a tali individui o ad altri.

In entrambi i casi, il focus non è incentrato sulla “significativa probabilità” di danno, quanto piuttosto sull’entità “significativa probabilistica” del danno stesso.

Si tratta in concreto di un vero e proprio cambiamento di paradigma, parzialmente riconducibile ad una estensione del principio di precauzione, tipico eurounitario.

Diventa, quindi, essenziale definire un limite matematico minimo di danno per attivare il filtro della causalità giuridica corrispondente.

L’articolo 5 del Regolamento, al netto di altre specifiche condizioni, statuisce il divieto di immissione in servizio di un sistema “che provochi o possa ragionevolmente provocare (…) un danno significativo”.

Come previsto dalle Regole e raccomandazioni per la formulazione tecnica dei testi legislativi del Senato italiano “nella formulazione dei precetti è adottata la massima uniformità nell’uso dei modi verbali, la regola essendo costituita dall’indicativo presente, escludendo sia il modo congiuntivo sia il tempo futuro”.

Nella norma di cui all’articolo 5 del Regolamento – come è stato evidenziato nella sua analisi da Stefano Saracchi, Responsabile della Direzione Organizzazione e Trasformazione digitale dell’Agenzia delle dogane dei monopoli –  il verbo transitivo “provocare” è usato al congiuntivo presente, indicando una possibilità o un’ipotesi e fungendo da predicato verbale nella proposizione relativa. La congiunzione coordinativa disgiuntiva “o” collega due possibilità verbali all’interno della stessa frase, introducendo con il verbo modale “potere” (anch’esso al congiuntivo presente) un’ulteriore possibilità. Tale verbo modale, infatti, è seguito poi dal verbo transitivo “provocare”, all’infinito. Nell’uso grammaticale italiano, il congiuntivo esprime incertezza, possibilità, desiderio, o ipotesi. Questo modo verbale è utilizzato per esprimere un’azione o uno stato che non è considerato reale o concreto al momento in cui si parla, ma che potrebbe realizzarsi o che si immagina potrebbe accadere. Nel caso concreto esprime possibilità.

Analogamente agli algoritmi che regolano il funzionamento dell’intelligenza artificiale basati su calcoli statistici e probabilistici, anche il divieto di utilizzo di un determinato sistema di IA sia condizionato da un’analisi preventiva, volta a stimare la probabilità che si verifichi un danno significativo. È, pertanto, essenziale individuare un modello matematico riconosciuto a livello internazionale, che possa concretamente determinare il verificarsi di tale condizione di divieto.

Sul piano giuridico, la differenza tra i due termini verbali riflette vari livelli di certezza e comporta specifiche conseguenze legali connesse all’azione descritta. Le due forme verbali, evidenzia Saracchi, hanno implicazioni distinte in termini di responsabilità e onere della prova.

Il congiuntivo presente conferisce una verosimile certezza e implica che l’azione di provocare un danno sia considerata possibile e potenzialmente imminente. Questa forma può essere utilizzata per trattare situazioni in cui esiste una connessione diretta ed evidente con un evento. Se un’azione provoca effettivamente un danno, ciò stabilisce una responsabilità diretta.

Il congiuntivo potenziale, introduce un maggiore livello di incertezza, non affermando che il danno si verificherà, ma indicando la possibilità che possa accadere. Questo è caratteristico nelle valutazioni di rischio e nella pianificazione preventiva.

Il concetto di danno in relazione ai modelli di intelligenza artificiale è connesso al fenomeno del “performance failure”, definibile come l’incapacità di un sistema IA di conseguire le prestazioni attese.

Le prestazioni attese si basano sull’accuratezza delle previsioni e sulla comprensione della loro variabilità.

Le metriche a disposizione per la valutazione della performance sono diverse e dipendono dal modello in oggetto: l’accuratezza è una di esse.

Nel caso dell’IA queste metriche sono elementi necessari ma non sufficienti e, pertanto, la direzione da intraprendere è verso regimi di test più robusti, che tengano conto dell’incertezza del modello e dei possibili margini di errore.

Un modello deve essere in grado di fornire un output e insieme ad esso una stima delle principali forme di errore insite in tale output. Il grado di confidenza con il quale è fornito il medesimo risultato.

Il pregiudizio economico derivante da “performance failure” di sistemi IA può manifestarsi attraverso molteplici fattispecie, tra cui: – costi incrementali per intervento umano suppletivo, resosi necessario per compensare le carenze prestazionali del sistema; – perdite economiche causate direttamente dal malfunzionamento del modello; – perdite economiche conseguenti alla sospensione operativa del sistema; – mancato conseguimento dei benefici economici oggetto di legittimo affidamento a seguito dell’implementazione dell’IA.

Due fenomeni particolarmente critici che possono compromettere l’affidabilità predittiva dei modelli nel tempo:

– Covariate shift (Slittamento delle variabili predittive): quando la distribuzione dei dati di input in fase di produzione diverge significativamente rispetto alla distribuzione dei dati utilizzati in fase di addestramento. Tale disallineamento può comportare un progressivo deterioramento delle capacità predittive del modello, con conseguente incremento del tasso di errore. 

– Concept drift (Deriva concettuale): consiste nella modificazione, nel corso del tempo, della relazione statistica tra variabili di input e target predittivo. Tale fenomeno si verifica quando, a parità di input, la variabile da predire manifesti comportamenti differenti rispetto a quelli osservati in fase di addestramento. 

Un caso specifico e particolarmente delicato è quello dei sistemi di rilevazione delle frodi, in cui abbondano modelli adottati da banche e enti pubblici.

Le metodologie fraudolente evolvono costantemente, determinando una progressiva alterazione della relazione tra indicatori di rischio (input) e natura fraudolenta della transazione (output). In assenza di adeguati meccanismi di adattamento, il sistema manifesterebbe un progressivo incremento del tasso di falsi negativi o positivi, con conseguente pregiudizio economico per l’istituto finanziario, l’ente pubblico e il soggetto privato.

La tempestiva identificazione e mitigazione di tali fenomeni costituisce un elemento imprescindibile per la corretta valutazione del rischio nei sistemi IA e per la predisposizione di adeguate strategie di gestione del rischio.

Tale strategia non può non includere anche una revisione periodica dei modelli o predittivi evitando ogni sistema discriminatorio, tenendo conto di dati oggettivi aggiornati e non solo di predizioni socio-economiche o geografiche.

I modelli parametrici probabilistici, basati su distribuzioni di probabilità predefinite, presuppongono che gli errori del sistema seguano specifiche funzioni di distribuzione. Questa metodologia è ampiamente utilizzata in contesti finanziari e attuariali, ma presenta limitazioni nell’applicazione a sistemi d’IA complessi e non lineari.

I modelli basati su metodi bayesiani, basati sull’aggiornamento continuo delle stime di rischio in funzione di nuove evidenze, si caratterizzano per la capacità di incorporare conoscenze a priori e adattarsi progressivamente all’acquisizione di nuovi dati. 

Tra le metodologie più significative per la valutazione del rischio nei sistemi IA emergono i metodi “distribution-free” o non parametrici. Questi approcci non necessitano di assunzioni rigide circa la distribuzione statistica degli errori.

È necessario distinguere tre aspetti fondamentali, tra loro correlati ma concettualmente distinti.

Il primo riguarda la definizione di ciò che costituisce un “errore significativo” del modello di IA, ovvero la determinazione dell’intervallo di confidenza oltre il quale una deviazione dalla predizione ideale si configura come giuridicamente rilevante (dannosa).

Il secondo riguarda la determinazione di quale probabilità deve esser ritenuta accettabile (soglia di significatività), ovvero la probabilità di malfunzionamento al di sopra della quale non è ammissibile procedere.

Il terzo attiene alla metodologia per verificare, con rigore, se e con quale frequenza un sistema di IA supera effettivamente tale soglia.

La definizione di un “intervallo di accettabilità” rappresenta una proposta significativa. Tale intervallo delimita il perimetro entro cui le variazioni delle predizioni del modello sono considerate fisiologiche. 

Per quanto riguarda la soglia di significatività, cioè la probabilità massima accettabile di malfunzionamento, la scelta sarà condizionata da elementi soggettivi, oggettivi e normativi.

In relazione al terzo aspetto, la metodologia offre un approccio statisticamente stabile per calcolare la probabilità che un sistema di IA produca risultati al di fuori dell’intervallo di accettabilità prestabilito. Tale metodologia, basata su tecniche di “conformal prediction”, presenta il vantaggio di non richiedere assunzioni sulla distribuzione statistica degli errori e di fornire stime conservative del rischio.

Nell’approfondimento giuridico sulla significatività del danno, possono emergere due principali correnti interpretative: l’approccio oggettivo e quello soggettivo. 

L’approccio oggettivo considera la significatività del danno come determinata da criteri universali e standardizzati. Secondo questa visione, il danno significativo è visto come indipendente dalle circostanze personali del singolo. Si basa sull’idea che esistano parametri predefiniti e misurabili che definiscono ciò che è rilevante, permettendo così una valutazione omogenea e prevedibile. Questo approccio è spesso favorito per la sua capacità di garantire chiarezza e uniformità nelle decisioni giuridiche, assicurando che situazioni simili ricevano trattamenti analoghi.

L’approccio soggettivo evidenzia che la valutazione del danno significativo deve considerare le specifiche circostanze individuali. Secondo questa prospettiva, ciò che è considerato un danno significativo varia da individuo a individuo, secondo una diversa condizione economica, sociale e di vulnerabilità. Questo approccio valorizza la diversità delle esperienze umane e riconosce che l’impatto di un evento dannoso possa variare notevolmente a seconda del contesto personale.

Nessuno dei due approcci può essere considerato in assoluto “il migliore” o comunque tale da escludere l’altro. 

Innanzitutto dobbiamo comprendere a quale ambito di impiego concreto dell’AI ci stiamo riferendo: un sistema di dosaggio di un farmaco? Il rilievo di un rischio di frode finanziaria? La prevedibilità di una frode su un contributo pubblico? Il rischio che una persona in viaggio sia un terrorista?

Ognuno di questi utilizzi ha precise implicazioni concrete che non possono essere risolte dall’uso standardizzato e generalizzato di un approccio oggettivo o soggettivo.

I due approcci devono integrarsi e mitigarsi reciprocamente, sia in base all’ambito di applicazione sia in base al soggetto (persona) cui vengono applicati.

Riconoscere che il danno significativo possa differire per ogni persona consente al diritto di adattarsi più fedelmente ai bisogni e alle situazioni specifiche degli individui, promuovendo una giustizia equa.

L’approccio soggettivo non solo comprende un ventaglio più ampio di esperienze umane, ma permette anche al sistema legale di rispondere in modo più sensibile e dettagliato alle sofferenze individuali, assicurando che nessun danno significativo possa essere sottovalutato o trascurato a causa di una definizione eccessivamente rigida o uniforme dei concetti giuridici sottesi.

È del tutto evidente che alcuni soggetti, caratterizzati da una solida posizione finanziaria, possano essere disposti a sopportare danni maggiormente significativi rispetto ad altri. Quando questi sistemi operano in settori socialmente sensibili, la soglia di errore ammissibile non potrà essere lasciata alla discrezionalità del singolo operatore, ma dovrà essere stabilita normativamente, prevedendo che il sistema non possa superare una determinata percentuale di errore, esplicitamente quantificata.

In quest’ottica, risulterebbe opportuna l’introduzione di un sistema di tabelle di riferimento per definire con precisione le soglie di errore ammissibili. Tali tabelle dovrebbero basarsi su un’analisi empirica consolidata e su rilevazioni oggettive, condotte secondo procedure standardizzate e metodologicamente rigorose, con periodici aggiornamenti utili a riflettere l’evoluzione tecnologica e l’accumulo di esperienze applicative.

Le soglie potrebbero essere parametrate in funzione di molteplici variabili: il settore di applicazione (distinguendo, ad esempio, tra ambito sanitario, finanziario, giudiziario o amministrativo), la numerosità potenziale delle persone impattate (differenziando tra sistemi che interessano pochi soggetti e sistemi che influenzano ampie fasce della popolazione), la gravità delle conseguenze potenziali (prevedendo soglie più stringenti per sistemi d’IA le cui decisioni errate possono comportare danni irreversibili), nonché il grado di supervisione umana previsto (ammettendo margini di errore del sistema più ampi laddove sia garantito un controllo umano significativo sulle decisioni definitive da assumere).

Tale approccio regolatorio, calibrato e differenziato, consentirebbe di bilanciare l’esigenza di tutela degli interessi diffusi con quella di non ostacolare l’innovazione tecnologica, predisponendo un quadro normativo che orienti gli operatori verso standard qualitativi elevati e senza imporre vincoli sproporzionati rispetto ai rischi effettivamente presenti nei diversi contesti applicativi.

Ciò non toglie che – data una tabella “di riferimento” – nel caso concreto, di fronte a prove specifiche, ci si possa scostare dalla tabella, che riflette – ricordiamolo – comunque dati statistici, e ben può accadere che una persona, individualmente intesa, può ampiamente scostarsi da una statistica.


Salvis Juribus – Rivista di informazione giuridica
Direttore responsabile Avv. Giacomo Romano
Listed in ROAD, con patrocinio UNESCO
Copyrights © 2015 - ISSN 2464-9775
Ufficio Redazione: redazione@salvisjuribus.it
Ufficio Risorse Umane: recruitment@salvisjuribus.it
Ufficio Commerciale: info@salvisjuribus.it
***
Metti una stella e seguici anche su Google News

Articoli inerenti

Il trust e il suo utilizzo nell’arte

Il trust e il suo utilizzo nell’arte

Sommario: 1. Il trust – 2. Il trust ed il passaggio generazionale della ricchezza – 3. Il trust nel mondo dell’arte 1. Il trust è un...

Sul mandato di credito e sulla sua natura giuridica

Sul mandato di credito e sulla sua natura giuridica

Sommario: 1. Il mandato di credito. La nozione – 2. La natura giuridica del mandato di credito1. Il mandato di credito. La nozione Il...

Sulla donazione di enfiteusi

Sulla donazione di enfiteusi

L’enfiteusi, che trova disciplina nel Titolo IV del Libro IV del Codice Civile, viene definita come quel rapporto giuridico in base al quale il...

Il testamento concordato nel diritto tedesco

Il testamento concordato nel diritto tedesco

a cura della dott.ssa Michela Falcone L’espressione “testamento concordato”, coniata da Maurizio Lupoi nel libro intitolato “I trust nel diritto...