La giustizia predittiva

La giustizia predittiva

La giustizia predittiva, deriva da una traduzione errata del termine inglese “predictive”, che non vuol dire predittivo ma prevedibile, è giustizia quindi prevedibile.

Con il termine giustizia predittiva, in prima approssimazione, si intende un insieme di strumenti sviluppati grazie all’analisi di grandi masse di dati, sulle quali applicando il calcolo di probabilità si vuole prevedere l’esito o la durata di una controversia ed, in particolare, fornire un orientamento delle decisioni.

La questione che può porre ogni giurista da quanto ciò detto, è come si può predire qualcosa di non prevedibile: il diritto non è una scienza esatta come la matematica, la fisica, ma è una scienza umana. Il ragionamento giuridico si basa su un’interpretazione, che è un’attività difficilmente formalizzabile perché è estremamente legata all’essenza stessa dell’essere umano e alla sua imprevedibilità, per i più filosofici “autocoscienza”.

La giustizia predittiva per fornire un orientamento sulle decisioni che potrebbe prendere quel determinato giudice, utilizza un algoritmo.

Essa permetterà di svolgere una selezione importante di tutte quelle che sono le leggi nazionali e sovranazionali, la giurisprudenza, ciò che oggi avviene con le banche dati. Quest’ultime sono però sempre regolate dall’uomo, sia nella creazione delle stesse che nella ricerca compiuta posteriormente dall’utente, vi è una selezione sia per l’inserimento delle fonti sia al momento in cui avviene la ricerca, ciò che distingue la banca dati dall’intelligenza artificiale è l’algoritmo.

Entrando nel vivo del discorso, cerchiamo di spiegare il meccanismo della giustizia predittiva.

Alla base vi è una creazione di banche dati che raccoglieranno le fonti normative ed un esteso archivio giurisprudenziale, questo è il presupposto per l’applicazione dell’intelligenza artificiale.

Prima di inserire i provvedimenti giudiziali vi è la necessità di standardizzarli attraverso dei modelli redazionali prefigurati ma non solo, occorrerà utilizzare dei linguaggi vincolati predeterminati che siano riconoscibili a livello informatico. I linguaggi sono alla base di ogni programma, senza di essi non c’è alcuna possibilità di produrre dati in uscita.

Il corretto inserimento dei dati permetterà al programma di funzionare e nel nostro caso, arrivare alla ratio decidendi di quel determinato giudice, si tratta di una funzione algoritmica per la soluzione del quesito giudiziale. Quante più sentenze potranno essere tradotte nel linguaggio informatico, tante più decisioni saranno basate su un’analisi di migliaia e migliaia di decisioni che abbiano trattato quell’argomento.

Rappresentando in un breve schema:

– Dati di input = leggi, sentenze.

– Dati output = orientamento della decisione.

Ciò diventerà ancora più “macchinoso”, se si vuole sapere il probabile orientamento di quel determinato giudice o addirittura individuare la strategia migliore utilizzabile: applicando il sistema al determinato giudice, raccogliendo i dati sulle sue decisioni e sulle strategie utilizzate dagli avvocati, si potrebbe arrivare ad una buona percentuale di orientamento per vincere la causa.

Negli USA sono nate delle start up per fornire servizi di giustizia predittiva: sono state raccolte una grande mole di sentenze di centinaia di tribunali degli USA ed attraverso il calcolo di probabilità utilizzato su questi dati, queste società offrono una varietà di funzioni.

Le funzioni possono essere: stima dei tempi per ottenere una decisione dinanzi a quel tribunale, addirittura dinanzi a quel giudice specifico; suggerimenti di argomentazioni e di set di prove da utilizzare o da non utilizzare davanti a quel determinato giudice; il probabile esito di una causa; la selezione di avvocati sulla base delle loro vittorie ottenute in quel tipo di cause davanti a quel determinato giudice.

Un esempio è l’app DoNotPay, si presenta come il primo robot-lawyer al mondo, che pigiando “Solve this problem for me” può risolvere il tuo caso. L’utente una volta effettuato il login non deve far altro che rispondere ad una serie di domande poste dalla macchina. “La macchina classificherà il caso tra 15 diversi tipi di contenzioso. L’intelligenza artificiale produrrà, in modo completamente automatizzato e senza intervento umano, gli elementi necessari per adire il tribunale ed è in grado di stabilire un argomento che il denunciante deve solo leggere in udienza. La macchina è infatti in grado di predisporre in anticipo una strategia legale per rispondere alle prevedibili argomentazioni dell’imputato. DoNotPay afferma una percentuale di successo del 55% per le azioni introdotte con il suo strumento. L’applicazione è stata messa a disposizione, gratuitamente, delle vittime della divulgazione dei dati personali dei clienti da parte di Equifaxi: i 25.000 ricorsi avviati utilizzando lo strumento DoNotPay avrebbero consentito ai denuncianti di ottenere una media di 9000 dollari di risarcimento[1]”. Tuttavia, la stessa app sottolinea che può risolvere casi semplici e non contenziosi complessi.

L’esperienza statunitense si basa su una doppia profilazione da una parte dei giudici e dall’altra parte degli avvocati.

In Francia sono sorte nel 2016 alcune start up costituite da studenti di giurisprudenza ed ingegneri informatici che forniscono alcuni servizi: le probabilità di successo su quella causa, il quantum di condanna, qual è la giurisdizione più favorevole, qual è l’avvocato più performante.

Il decreto n. 2020-356 del 27 marzo 2020, ha autorizzato in via sperimentale per due anni il programma Datajust, “che mira a sviluppare un algoritmo incaricato di estrarre in modo automatico e di sfruttare i dati a carattere personale contenuti nelle decisioni relative al risarcimento delle lesioni personali […] le categorie di dati personali e le informazioni registrate nel trattamento sono ricavate dalle sentenze emesse tra il 1 gennaio 2017  e il 31 dicembre 2019,  giurisprudenza delle Corti d’Appello, Corte di Cassazione e Consiglio di Stato[2], quindi solo delle corti superiori, in quanto in Francia il PCT non è utilizzato nelle corti di merito.

Un’ulteriore particolarità della Francia rispetto agli USA è la legge n. 222/2019 del 23 marzo 2019, il quale art. 33 ha modificato l’Article L111-13, Code de l’organisation judiciaire, che vieta espressamente la profilazione dei giudici: “Les données d’identité des magistrats et des membres du greffe ne peuvent faire l’objet d’une réutilisation ayant pour objet ou pour effet d’évaluer, d’analyser, de comparer ou de prédire leurs pratiques professionnelles réelles ou supposées. La violation de cette interdiction est punie des peines prévues aux articles 226-18,226-24 et 226-31 du code pénal, sans préjudice des mesures et sanctions prévues par la loi n° 78-17 du 6 janvier 1978 relative à l’informatique, aux fichiers et aux libertés”.

Il divieto vale sia per la giustizia ordinaria sia per quella amministrativa e sorpassarlo potrebbe costare fino a cinque anni di prigione[3].

Veniamo al nostro paese, l’Italia ha una grande esperienza in tema di banche dati giurisprudenziali, il CED (Centro elettronico di documentazione) ha cominciato a funzionare nel 1970, nel 1973 ci sono stati i primi collegamenti con le Corti d’Appello. “ItalGiure” è stata una delle prime banche dati di giurisprudenza di legittimità al mondo ed oggi è tra le più complete perché ha 36 milioni di documenti. Il problema rimane la raccolta della giurisprudenza di merito: l’archivio di merito era stato progettato insieme a quello di legittimità, però siccome si basava sull’inserimento di sentenze a titolo volontario da parte dei giudici, che le emettevano, entrò da subito in crisi e nel 2004 fu abbandonato.

“ItalGiure” venne riproposta nel 2016 come banca dati della giurisprudenza di merito, ma il problema che affiorò rimaneva l’inserimento delle sentenze. Per risolvere tale problematica si è optato dapprima alla registrazione delle sentenze con dei criteri definiti dai presidenti delle Corti d’Appello e dei Tribunali, nel 2017 una delibera del CSM individuò delle linee guida per la registrazione, affidando la supervisione ai capi degli uffici, ma le difficoltà permasero.

L’art 47 quater dell’Ordinamento Giudiziario prevede, tra i compiti specifici dei Capi delle sezioni dei Tribunali, quello di tenere riunioni periodiche per affrontare l’interpretazione e le diversità di orientamento che si creano in seno alle sezioni, non per frenare questi diversi punti di opinione ma per evitare le diversità inconsapevoli o non sufficientemente meditate. Quindi, si può dire che l’individuazione dell’orientamento nelle sezioni di merito in Italia non solo è lecito, ma addirittura un obiettivo perseguito dalla legge. L’ulteriore passo sarebbe quello di rendere pubblico questo orientamento ai cittadini e agli avvocati.

Nel sito della Corte di Appello di Bari vi è un’apposita sezione titolata “Progetto prevedibilità delle decisioni”, attraverso la giurisprudenza su determinate casistiche ricorrenti si è cercato di dare inizio ad una giustizia predittiva con l’aiuto dei tirocinanti e la supervisione dei Capi delle sezioni.

Sistemi più strutturati sono quelli della Corte di Appello di Venezia con l’aiuto del Centro Studi giuridici dell’Università Ca’ Foscari e l’azienda “Deloitte”, e il progetto della Corte di Appello di Brescia con i Dipartimenti di giurisprudenza e statistica dell’Università di Brescia, finanziato dalla Fondazione della Comunità Bresciana.

Analizzando i vantaggi e i problemi applicativi dell’intelligenza artificiale.

Riguardo i primi, l’identificazione della ratio decidendi attraverso l’applicazione di un algoritmo potrebbe far rendere una decisione priva di fattori contingenti, quali stanchezza, la mancanza di conoscenze aggiornate, lo stress, ed in questo modo superare ciò che di negativo può avere un giudice essendo pur sempre un essere umano. Mentre è impossibile che una persona fisica possa avere tutte le conoscenze tecniche necessarie per risolvere un determinato caso, l’algoritmo invece potrebbe avere una memoria e una capacità di apprendimento illimitate.

Inoltre è risaputo che la decisione del giudice è influenzata dall’ora del giorno. È stato dimostrato che è più probabile ottenere un giudizio favorevole all’inizio della giornata o dopo un pasto[4].

Se ci si affaccia oltre le nostre Alpi, l’Estonia dal 1997 ha avviato il progetto “e-Estonia”, “la piattaforma digitale “X-road” permette anche la risoluzione di controversie giudiziarie del valore massimo pari a € 7.000. Le parti di un contenzioso inseriscono tutti i dati, gli atti e i documenti, affidando ad un algoritmo, appositamente elaborato da un team di esperti nominati dal Governo, la soluzione del caso[5]”, qualora le parti volessero impugnare tale sentenza hanno sempre il diritto di presentarsi davanti un giudice umano. Il Ministero della giustizia estone ha deciso di alleggerire il lavoro dei giudici e delle cancellerie utilizzando un sistema di intelligenza artificiale per sgravare i compiti delle cancellerie e dei magistrati.

Riguardo i problemi applicativi, un primo problema è quello della selezione delle decisioni con criteri prefissati, in particolare la massimizzazione delle decisioni deve avvenire con linguaggio chiaro ed accessibile a tutti, questo è un lavoro che andrà svolto in modo manuale. L’algoritmo lavora sulla base di un materiale catalogato, ma se il lavoro di inserimento è affidato ai tirocinanti con poca esperienza, il risultato non potrà essere quello sperato.

Inoltre la statistica giudiziaria non permette di differenziare le sentenze, per cui un precedente di un giudice poco scrupoloso varrà quanto una sentenza di un collega molto più autorevole, quindi è la perpetuazione del metodo 1 vale 1.

L’algoritmo, inoltre, non permette di scandagliare tutte le peculiarità del caso concreto, ma se è il fatto a fare il diritto, quindi il diritto progredisce attraverso la valorizzazione delle particolarità del fatto, come emerge in qualsiasi processo dalle prove sfociate nel giudizio, cosa ne sarà della prova, il mezzo esclusivo di verità dei fatti, se la decisione di quel giudice è già stata programmata?

Nel terminare, gli algoritmi sono di tipo induttivo, da casi pratici si risale ad una regola generale, mentre il ragionamento deduttivo è privo di vizi logici, il metodo induttivo si presta a delle fallace perché la generalizzazione per casi particolari non sempre porta a risultati soddisfacenti. Il rischio è generalizzare delle false: se vengono inserite più volte nel sistema delle sentenze “x=y” contenenti l’errore, perché giusto sarebbe “x=a”, la ripetizione di questo errore nell’algoritmo viene trasformata in certezza e tenderà quindi a dare dei falsi orientamenti del caso x. Ciò potrà produrre non solo un errore di una condanna, ma potrà anche arrestare l’evoluzione del diritto, in quanto questo ragionamento può farsi non solo sulla prevedibilità delle decisioni, ma anche sulle tesi giuridiche, se nel sistema per più volte è stato ripetuto che quella tesi giuridica ha un basso livello di successo perché così rilevato da molti precedenti, nessuno poi proporrà questa tesi, rischiando di limitare la creatività degli stessi avvocati.

Nella peggiore delle ipotesi il giudice “pigro” potrebbe considerare il risultato dell’algoritmo non come punto di partenza ma come punto di arrivo, e conformarsi alla giustizia predittiva.

In conclusione, l’intelligenza artificiale nel campo della giustizia risulta sicuramente un utile strumento per la selezione delle informazioni, ma solo per avere un supporto qualitativo e tempestivo per svolgere un’attività legale; peraltro anche il giudice potrà nella propria attività accedere agli algoritmi, ad esempio per sapere cosa la più autorevole giurisprudenza riferisce su un determinato argomento, ma in nessun modo si dovrà sostituire la decisione del giudice con una macchina perché il libero convincimento del giudice è un elemento prezioso, cui la giustizia non dovrà in nessun modo mai rinunciare.

 

 

 

 

 

 


[1] Serge Abiteboul, Florence G’Sell, Les algorithmes pourraient-ils remplacer les juges?, in < https://hal.inria.fr>, p.6. Articolo tradotto.
[2] Giada De Pasquale, La giustizia predittiva in Francia: il trattamento Datajust, in <www.judicium.it>, 26.11.2020.
[3] Claudia Morelli, Giustizia predittiva: la Francia dice no alla profilazione dei giudici, in <www.altalex.com>, 17.06.2019
[4] S. Danziger, J. Levav et L. Avnaim-Pesso, « Extraneous factors in judicial decisions », PNAS ,in <http://houdekpetr.cz> , aprile 2011.
[5] Michele Dicuonzo, Il Giudice robot: una chimera o una realtà possibile, in <fattodititto.it>, 31.12.2020.

Salvis Juribus – Rivista di informazione giuridica
Ideatore e Coordinatore Avv. Giacomo Romano
Listed in ROAD, con patrocinio UNESCO
Copyrights © 2015 - ISSN 2464-9775
Ufficio Redazione: redazione@salvisjuribus.it
Ufficio Risorse Umane: recruitment@salvisjuribus.it
Ufficio Commerciale: info@salvisjuribus.it
The following two tabs change content below.

Arianna David

Latest posts by Arianna David (see all)

Articoli inerenti