L’intelligenza artificiale in materia penale: profili comparatistici e questioni attuali

L’intelligenza artificiale in materia penale: profili comparatistici e questioni attuali

Sommario: 1. Premessa – 1.1 Origini e nozione di intelligenza artificiale – 1.2 L’intelligenza artificiale in materia penale – 2. Profili comparatistici dell’Intelligenza artificiale nel settore penale – 2.1 L’intelligenza artificiale nel Sistema Unionale – 2.2 L’intelligenza Artificiale nei Paesi Europei – 2.3 L’Intelligenza artificiale nei Paesi Extraeuropei – 3. Questioni attuali di diritto penale sostanziale e processuale

 

1. Premessa

L’intelligenza artificiale (I.A.) è una scienza di confine e di carattere multidisciplinare,  avente un raggio d’applicazione vasto ed eterogeneo che oggi più che mai assume notevole rilevanza, non solo nel campo ingegneristico ed informatico, ma in tutti gli ambiti disciplinari, primo fra tutti nel settore giuridico dove, con specifico riguardo al settore penale, acquisisce un’importanza sicuramente più delicata e pregnante in quanto incidente sui principi fondamentali della persona umana.

L’I.A. per la rilevanza e la portata degli intessi in gioco, è dunque una materia che necessita di essere conosciuta, studiata e approfondita non solo in merito alle prospettive future che potrebbero delinearsi e alle possibili implicazioni anche nel capo del diritto, ancor di più nel settore penale, ma soprattutto perché è una realtà già operante nella nostra quotidianità che involge diritti fondamentali di natura costituzionale e sovranazionale.

A sostegno della indiscutibile importanza dei sistemi di I.A. nel nostro ordinamento, basti pensare che un gruppo di 30 esperti ha lavorato da gennaio a luglio 2019 ad un documento di Strategia nazionale per l’Intelligenza Artificiale di circa 106 pagine, attualmente sottoposto da parte del MISE (Ministero dello sviluppo economico)  alla consultazione pubblica fino al 13 settembre 2020, con lo scopo di indicare le linee guida sulle quali il Governo utilizzerà  l’I.A. al servizio della produttività del Paese, documento che si pone in linea con il lavoro in questi ultimi anni svolto dall’Unione Europea.

1.1 Origini e nozione dell’intelligenza artificiale

L’espressione Intelligenza artificiale, viene utilizzata per la prima volta nel 1955 da John McCarthy, un assistente matematico universitario al Dartmouth, College di Hanover, diventato uno dei padri fondatori dell’I.A., durante un convegno con altri colleghi finalizzato allo studio su come le macchine passano utilizzare dati per risolvere  problemi posti dagli essere umani.

Dopo circa 30 anni il fenomeno inizia a prendere forma e ad espandersi significativamente. Roger Spank, uno dei fondatori della  linguistica computazionale, nel 1987, in un suo saggio, considera l’esistenza dell’I.A. allorquando vi siano presenti 5 caratteristiche: la conoscenza di sé, la conoscenza della realtà esterna, una condotta finalisticamente orientata, infine l’esistenza di un margine di creatività, ovvero la capacità di prospettare soluzioni alternativa nel caso in cui il piano iniziale fallisca o non si possa realizzare.

Con specifico riguardo al campo giuridico, l’I.A. è stato oggetto di notevole interesse già a partire dalla fine degli anni ’90 e i primi anni del 2000, nell’ottica di una prospettiva di miglioramento del lavoro del giurista, e già allora ha destato le prime perplessità in tema di limiti e di rispetto dei diritti della persona.

Oggi la materia in esame risulta ancora più interessante e delicata, non solo a seguito del repentino ed inarrestabile sviluppo tecnologico avuto negli ultimi 20 anni e delle sue implicazioni ed applicazioni in ambito nazionale, europeo ed extraeuropeo, ma anche in conseguenza della situazione emergenziale che stiamo ancora vivendo, per fare solo un esempio, basti pensare all’utilizzo all’app immuni, che tuttora è oggetto di pregnante dibattito soprattutto in  relazione al problema della tutela dei dati personali.

Si tratta di temi molto caldi, che sicuramente meriterebbero di essere disciplinati dal legislatore, in quanto già operanti nel nostro ordinamento, ed ancora di più negli altri paesi europei ed extraeuropei, e per le suesposte ragioni, meritano altresì di essere oggetto di studio specifico e dettagliato anche all’interno delle Università.

Il termine intelligenza artificiale, infatti è sicuramente una nozione complessa che racchiude in sé una molteplicità di significati inclini a specificarsi in ordine alla materia con la quale entra in contatto ma, più generalmente e senza pretese di esaustività, può essere considerata come l’insieme delle teorie e delle pratiche che sviluppano algoritmi che consentano a delle macchine (machine learning) di analizzare e risolvere problemi in specifici ambiti.

Ogni sistema di I.A. presuppone dunque un insieme di dati e informazioni che verranno successivamente elaborati, quindi la qualità del risultato certamente dipende dal tipo dalla correttezza logica e dalla completezza di tali dati ed informazioni, e pone da subito un primo problema sul “controllo” di tali dati e tutela della riservatezza. Altro aspetto, riguarda le “istruzioni” in base al quale ogni sistema è destinato a funzionare, in quanto laddove ipotizzassimo un sistema capace di auto-generare e creare autonomamente criteri di elaborazione complessi, ci troveremmo di fronte a meccanismi simili alla persona umana e quindi di difficile controllo e prevedibilità.

1.2 L’intelligenza artificiale in materia penale

Nel diritto penale il tema dell’intelligenza artificiale, come accennato, risulta più sensibile e meritevole di essere attenzionato in virtù dei particolari interessi che possono essere violati, nonché in una prospettiva positiva, in ordine al supporto che i  “sistemi intelligenti“ possono dare agli operatori del diritto e più in generale al sistema penale.

Sotto il primo profilo, la rivoluzione tecnologica operata dall’I.A. può creare dubbi e problemi in materia penale  sotto almeno quattro punti di vista: in relazione all’attività di “Law enforcement” nello specifico nell’attività della c.d. polizia predittiva; riguardo ai c.c.d.d. “automated decision system” che potrebbero trovare impiego nei procedimenti penali e in futuro influire sulla decisione del giudice; per quanto concerne i c.c.d.d. algoritmi predittivi che hanno come scopo quello di valutare la pericolosità del soggetto e quindi valutare se possa o meno compiere un nuovo reato; ed infine si pongono problematiche in ordine alla responsabilità penale dei sistemi di I.A. come strumento, autore o vittima di un reato.

1- Riguardo il primo tema, l’impiego dell’I.A. nell’attività di “law enforcement”, è una realtà già attuale e prevede un notevole incremento della stessa nei prossimi anni, su diversi piani.

Si tratta infatti di un prezioso aiuto alle Forze dell’Ordine avente ad oggetto la c.d. polizia predittiva. Per polizia predittiva si intende l’insieme delle attività e studi volti a “predire” chi, dove e quando compirà un reato, al fine di prevenirne la commissione.

Attualmente l’impiego di “software intelligenti ”ha sicuramente compiuto numerosi progressi nell’attività di polizia predittiva, è infatti oggi possibile acquisire ed elaborare una enorme quantità di dati (c.d. Big data) finalizzati a rintracciare connessioni prima non individuabili dall’operatore umano.

I software di polizia predittiva possono essere suddivisi principalmente in due categorie: a) quelli che individuano le c.c.d.d.. “zone calde” (hotspots), ovvero i luoghi dove potrebbero commettersi in futuro determinati reati; b) quelli che invece in un’ottica di crime linking, seguono i comportamenti seriali di determinati soggetti, per prevedere dove e quando essi commetteranno i prossimi reati.

Giova specificare che entrambi i sistemi trovano attualmente applicazione, solo per determinati categorie di reati (come ad es. rapine, criminalità da strada, spaccio di stupefacenti ecc.).

2- Riguardo la seconda classificazione, è utile evidenziare che, sistemi di I.A. vengono utilizzati anche ai fini decisionali in vari campi, e sono in crescente aumento sia nel settore privato che pubblico, si tratta delle c.d. automated decison systems.

Tali decisioni si basano su algoritmi, in grado di comporre e risolvere liti. Si tratta di metodi  alternativi alla risoluzione delle controversie, spesso gestiti online che comportano significativi risparmio di tempo e costi, e che adesso vengono utilizzati prevalentemente per questioni civili (risarcimento danni, questioni assicurative ecc.), ma nulla vieta che possano trovare impiego anche nel campo penale.

Tali applicazioni hanno comprensibilmente destato l’attenzione da parte del Consiglio Europeo, che nel 2018 ha adottato la “Carta etica  europea per l’suo dell’intelligenza artificiale nei sistemi di giustizia penale e nei relativi ambienti” (CEPEJ), un documento di eccezionale rilevanza che impone, il rispetto dei principi fondamentali, di non discriminazione, di qualità e sicurezza, di trasparenza, di garanzia e controllo umano .

3- In relazione ai c.c.d.d. algoritmi predittivi, occorre evidenziare che la valutazione di pericolosità criminale,  si basa su una seria di predittori (o fattori di rischio) coinvolti nel comportamento criminoso, fattori che possono riguardare: l’età, il sesso, l’origine etnica, il livello di scolarizzazione, la situazione familiare e lavorativa ,la posizione sociale ,i precedenti penali, le precedenti esperienze carcerarie, i luoghi e le persone frequentate, la presenza di autori di reato nella cerchia familiare o nella rete di conoscenze, il luogo di residenza, le difficoltà di regolazione della rabbia o aggressività, il discontrollo degli impulsi, una storia di precedente violenza agita ,una storia di ospedalizzazione, un pensiero pro-criminale, alcune variabili contestuali(come la mancanza di sostegno familiare e sociale), il consumo di sostanze stupefacenti o psicotrope, le psicopatie. Tutti questi fattori, se raccolti possono consentire ad una valutazione della pericolosità criminale, attraverso un punteggio del soggetto esaminato.

Certamente non tutti i fattori di rischio sono uguali e hanno un differente grado di dinamicità, di intensità, di modificabilità , precocità e durata.

4- Infine, da non sottovalutare è la problematica connessa alla responsabilità penale dei sistemi di I.A. come strumento, autore o vittima di un reato.  Le enormi potenzialità dell’I.A. possono infatti , e già è accaduto, servire a scopi criminali e quindi essere utilizzate per commettere reati oppure esserne vittime. Per fare alcuni esempi, condotte criminali mediante sistemi di I.A. , possono aversi i n relazione ad esempio ai crimini informatici, ambientali ed economici, per la tratta di esseri umani, per lo spaccio di sostanze stupefacenti, ma anche riguardo a violazioni della privacy, dei dati personali, alla violazione della proprietà industriale e intellettuale, in ordine ai reati di abuso della credulità popolare e diffamazione. Dobbiamo dunque essere pronti ad un’era in cui  la commissione di reati mediante l’I.A diventi assai incisiva e così da creare nuove fattispecie di reato o rimodulare quelle già preesistenti, al fine di poter tutelare i beni giuridici violati da questa “nuova” fonte di rischio. Il quesito dunque che appare spontaneo in tal senso è : “Machina delinquere potest?”, ovvero “La macchina può essere considerata responsabile penalmente?” Infatti se il sistema di I.A. ha una propria capacità decisionale e di apprendimento diventa difficile escluderlo da eventuali responsabilità, inoltre giova anche considerare quale ruolo possa avere in termini di responsabilità anche l’agente umano che si serva di tali macchine.

Prime ed embrionali risposte in tal senso sono state date da diversi paesi in ambito europeo ed extraeuropeo, diversamente la nostra legislazione necessita di una puntale e chiara normativa a riguardo .

2. Profili comparatistici dell’Intelligenza artificiale nel settore penale

Per comprendere la portata e come l’I.A. ha negli ultimi decenni inciso nel campo penale, appare utile soffermarsi sulle esperienze del sistema unionale, dei paesi europei ed extraeuropei in merito, ponendo esigenze di regolamentazione e limiti riguardo al suo utilizzo e alle relative modalità di applicazione.

2.1 L’intelligenza artificiale nel Sistema Unionale

In ambito Unionale, il Parlamento Europeo già dal 2017 ha espresso notevole interesse in materia di intelligenza artificiale, sia riguardo le  sue applicazioni che ed implicazioni, che sui futuri sviluppi nei settori più vasti, ed anche nel campo giuridico, sia dal punto di vista penalistico che civilistico.

A tal proposito, occorre evidenziare che recentemente  la Commissione Europea il 19-02-2020 ha redatto il c.d. “Libro bianco sull’intelligenza artificiale –Un approccio europea all’eccellenza e alla fiducia”, nel quale viene evidenziato non solo, l’importanza dell’intelligenza artificiale e di come la stessa stia cambiando le nostre vita e le cambierà nei settori più disparati, ma ne incentiva l’utilizzo in termini di innovazione e progresso tecnologico ed al tempo stesso ribadisce l’importanza di creare forme tutela dai rischi ad essa connessi, soprattutto riguardo ai diritti fondamentali della persona.

Nel Libro bianco la Commissione europea, ha inoltre evidenziato i rischi per i diritti fondamentali, comprese la protezione dei dati personali e della privacy e della non discriminazione, che l’uso dell’I.A. può comportare in misura sicuramente maggiore rispetto alle distorsioni e discriminazioni di qualunque altra attività sociale ed economica. Si tratta infatti di sistemi che, in assenza di meccanismi umani che disciplinano il controllo di tali sistemi, possono colpire una quantità indiscriminata di persone. La Commissione Europea ribadisce altresì l’importanza di una normativa chiara e immediata in materia di sicurezza, che affronti i rischi che i sistemi di I.A possono comportare, anche in termini di imprevedibilità oltre che di controllo.

Sulla stessa linea si pone anche il Consiglio d’Europa che a Strasburgo nel 2018, ha adottato la “Carta etica europea sull’uso dell’intelligenza artificiale nei sistemi di giustizia penale e nel loro ambiente”(CEPEJ) già menzionata, che mira ad assicurare la compatibilità degli strumenti dell’intelligenza artificiale con la tutela dei diritti fondamentali, del rispetto dei principi di non discriminazione, attraverso lo sviluppo di dispositivi sicuri ed in grado di garantire sistemi tecnologici trasparenti, imparziali ed equi.

Anche la Commissione Europea nel 2018 ha elaborato un Gruppo indipendente di esperti di alto livello sull’intelligenza artificiale nell’ambito della generale strategia a sostegno dell’intelligenza artificiale in Europa, etica, sicura e all’avanguardia  in diversi settori: cura delle malattie, lotta contro i cambiamenti climatici, previsioni di catastrofi naturali, aumento della sicurezza dei trasporti, lotta alla criminalità organizzata e ala miglioramento della cybersicurezza.

L’obiettivo è quello di incentivare un sistema di intelligenza artificiale, affidabile, fondato su principi di legalità , eticità e robustezza,  poiché gli strumenti di I.A., pur promuovendo benefici sociali ed economici, possono  al contempo produrre effetti negativi sul corretto esercizio dei diritti fondamentali delle persone.

2.2. L’intelligenza Artificiale nei paesi Europei

In Inghilterra, un professore dell’Università di Cambridge, ha sviluppato in collaborazione con altri enti ed istituzioni, un sistema basato sull’intelligenza artificiale, chiamato “Hart” (Harm Assessment Risk Tool) in grado di valutare il rischio di reiterazione di un qualunque individuo arrestato dalla forze dell’ordine.  Questa tecnologia, ha lo scopo di categorizzare in base a tre livelli di rischio le persone sospettate e condannate per un reato. Si tratta nello specifico di una  “machine learning tool” avente lo scopo di svolgere  giudizi predittivi.  Il soggetto, viene “catalogato” sulla base di  tre gradi di pericolosità: alto, medio e basso, e mira a stabilire se l’arrestato possa potenzialmente commettere, un grave reato entro 24 mesi, un non grave reato entro il medesimo periodo, o non commettere alcun reato almeno per i prossimi due anni.

Il sistema Hart è in uso già dal 2017, presso il distretto di polizia di Durhan (nord-est dell’Inghilterra) ed entro la fine dell’anno, una volta conclusa la fase di sperimentazione del test, verrà implementato in tutti i principali dipartimenti della nazione.

Lo strumento in esame si basa su ben 34 parametri differenti tra cui l’età, il q.i., la nazionalità, residenza e altre generalità, che analizzate e combinati fra loro, forniscono una risposta definitiva in appena 11 secondi sul grado di pericolosità del soggetto esaminato. Un altro parametro che viene  preso in considerazione è lo storico dell’individuo, ovvero gli eventuali reati già commessi in passato. E’ bene, proprio sulla base delle variabili prese in considerazione da parte del modello in esame, sono sorte rilevanti critiche in termini di privacy, e non solo. Si è sostenuto infatti che l’utilizzo di tali fattori per addivenire ad un giudizio predittivo possa comportare problematiche involgenti pesanti discriminazioni razziali nei confronti di soggetti che verrebbero “schedati” sulla base del luogo di residenza,  nazionalità, religione, cultura ecc.

Giova precisare,  che questo strumento basato sull’intelligenza artificiale, non verrà sfruttato per decretare la colpevolezza o l’innocenza di una persona, ma solo come strumento supplementare per aiutare le forze dell’ordine nel portar avanti una indagine, si tratta dunque di un sistema di giustizia predittiva.

Inoltre, appare utile evidenziare, che nel governo inglese è stata creata una proposta di legge per i reati minori finalizzata a creare un difensore totalmente informatizzato.

In tema di Intelligenza Artificiale, la Francia è sicuramente in tal senso un ordinamento peculiare e all’avanguardia. Per fare solo un esempio, nel 2016 è stata creata da parte di una startup francese una piattaforma finalizzata a prevedere le decisioni dei giudici, così da poter potenziare la strategia difensiva degli avvocati, anche in tal caso si tratta  della c.d. giustizia predittiva. In risposta a ciò il Governo Francese con la L. 2019/2022 ha previsto delle sanzioni penali nei confronti di qualsiasi società che partendo da decisioni o sentenze, analizzi e riutilizzi i dati di identità dei magistrati con lo scopo di valutare e prevedere le loro decisioni ex art. 33 L. 2019/22 per violazione dei principi di indipendenza, di cristallizzazione del diritto e del giudice naturale precostituito per legge.

Giova anche sottolineare che sempre in Francia, la recentissima proposta di legge costituzionale n. 2585 del 15 gennaio del 2020 configura il riconoscimento costituzionale dell’intelligenza artificiale come presupposto essenziale di una moderna società digitale, basata sul rispetto dell’uguaglianza, della solidarietà e della non discriminazione. Nello specifico la proposta in esame relativa alla “Charte de l’Intelligence artificielle et des algorithmes”, è la prima iniziativa volta a costituzionalizzare le implicazioni giuridiche dell’Intelligenza artificiale. Tale legge costituzionale, dopo aver delineato la nozione di Intelligenza artificiale, intesa come qualsiasi robot o algoritmo evolutivo suscettibile di apprendimento decisionale, prevede in caso di danni cagionati dalla macchina agli individui,  l’imputabilità di obblighi e responsabilità direttamente a carico delle persone giuridiche, che come rappresentanti legali crea e distribuisce sistemi di intelligenza artificiale, escludendo quindi che le macchine possano essere dotati di personalità giuridica e dunque titolari di situazioni giuridiche soggettive.

Non solo, in Francia sarà attivo a breve un test di tre mesi che userà l’intelligenza artificiale integrata con videocamere di sicurezza, per controllare se i passeggeri della metropolitana indossano la mascherine. La ricognizione si riferisce Bloomberg e non ha scopo punitivo, ma servirà a generare statistiche anonime. Il software, spiegano gli ideatori della startup Datakalab’s, fornirà come unico output una percentuale delle persone dotate del dispositivo di protezione, che verrà utilizzato dalle forze dell’ordine e inizierà nella stazione di Chatelet.-Les-Halles, stazione che in periodi di normale movimento, è frequentata da circa 33 milioni di passeggeri. Il progetto ha suscitato polemiche per i rischi per la privacy, a cui gli stessi ideatori hanno risposto garantendo che non verranno raccolti né conservati i dati personali.

Notevole rilevanza nell’ambito dell’I.A assume anche  la Russia, che ha adottato una soluzione , sicuramente ancora embrionale, in termini di responsabilità penale delle macchine  dotate di intelligenza artificiale, attraverso  l’estensione della norma di cui all’art. 1064  del codice civile della Federazione Russa, relativa alla responsabilità degli animali, a tali sistemi. Si tratta del c.d. modello zoologico, sulla scorta della considerazione che tali macchine come gli animali, sono sistemi dotati di autonoma intelligenza ed in parte coscienti delle proprie azioni, tuttavia i proprietari sono responsabili per i danni cagionati dagli stessi nel caso in cui non siano prevedibili e/o evitabili. Giova evidenziare che una norma non molto lontana da quella del codice civile russo è vigente anche nel nostro ordinamento all’art. 2052 c.c., secondo la quale il proprietario risponde, salvo il caso fortuito, dei danni provocati dall’animale anche se è fuggito o smarrito.

2.3 L’Intelligenza artificiale nei paesi extraeuropei

Negli Stati Uniti l’intelligenza artificiale  viene utilizzata in vario modo, primo fra tutti per il riconoscimento facciale attraverso tracciati, ovvero algoritmi, che identificano il volto di una persona (ad esempio in base ala distanza fra gli occhi, la linea del naso ecc.). In ambito giudiziario, viene impiegata  allo scopo di individuare dove può avvenire il reato, riguardo quindi  il luogo, il tipo d reato e il tempo. Si parla a tal proposito del c.d. “Risk assessment tools”, ovvero dell’insieme degli strumenti di valutazione del rischio che utilizzano i dati della persona fisica per fare valutazioni sia in ambito della custodia cautelare che per le decisioni sulla pena.

In America infatti, ogni qualvolta vi è un giudizio preventivo, come nel caso dell’affidamento in prova, si utilizza l’intelligenza artificiale o surrogati della stessa, infatti sono attualmente già in vigore circa 20-25 leggi che hanno lo scopo di regolare i c.c.d.d. “Risk Assessment Tools”.

Nello specifico negli Stati Uniti, l’intelligenza artificiale viene ormai quotidianamente impiegata attraverso il programma Compas (Correctional offender management profiling for alternative sanctions) elaborato dall’azienda Northpointe (adesso Equivant). Si tratta di un algoritmo che sulla base di 137 domande determina decisioni preventive sui soggetti a rischio ed è stato anch’esso oggetto di recenti critiche in ordine alle discriminazioni razziali.

Tale algoritmo viene utilizzato anche per prevedere la recidiva, per individuare in generale i bisogni dell’individuo, quali l’occupazione, la disponibilità di alloggio, eventuali abusi di stupefacenti ecc.

Il sistema in esame, consiste in un grafico di tre barre che rappresentano in una scala da 1 a 10, il rischio di recidiva preprocessuale, il rischio di recidiva generale ed il rischio di recidiva violenta, i c.d. punteggi di rischio, sono volti  a predire le probabilità generale che gli individui, con una storia criminosa simile, siano più o meno propensi  a commettere un nuovo reato una volta tornati in libertà.

L’aspetto da tenere presente è che il sistema Compas non prevede il rischio di recidiva individuale dell’imputato, bensì elabora la previsione componendo le informazioni ottenute dal singolo con quelle relative ad un gruppo di individui con caratteristiche simili.

A tal riguardo, giova portare all’attenzione, il  famoso caso Loomis del 5 aprile-13 luglio 2016, dove i calcoli del sistema Compas, attestavano sul soggetto esaminato, un alto livello di rischio su tutti e tre gli ambiti della recidività. E’ stato obiettato nel caso specifico, che tale strumento non dovesse essere utilizzato per decidere la severità della pena, né per determinare se l’imputato dovesse essere recluso o meno. Loomis, inoltre lamentava che il modello Compas fosse violativo del diritto ad un processo equo (art. 6 Cedu), in quanto a seguito della predetta previsione, gli era stata rigettata la concessione della libertà vigilata. La Corte americana del Wiscosin, ha però risposto a tali doglianze, negando l’illegittimità dell’utilizzo del sistema Compass, in quanto ha affermato, che i dati forniti dal software Compass, sono solo uno fra la moltitudine di altri fattori utilizzati ai fini della decisione, e che il medesimo giudizio sarebbe stato preso anche in assenza del suo utilizzo.

Sempre in America, è ormai ampiamente utilizzato l’istituto del “Bail”,  come strumento per decidere se un soggetto possa essere o meno rilasciato su cauzione. Si tratta di un sistema, in base al quale il giudice stabilisce una somma che l’imputato può pagare per evitare di dover rimanere in carcere in attesa del processo. In alcuni Tribunali si utilizza il sistema dell’I.A. per aiutare a decidere quando e per quanto tempo i soggetti debbano essere tenuti in custodia, in tal senso spesso i giudici stabiliscono un importo molto elevato di cauzione, per gli imputati che ritengono abbiano un rischio elevato di non presentarsi il processo.

Infine giova considerare fra sistemi di I.A applicati in materia penale, anche il sistema P.S.A (Public Safety Assessment). Si tratta di uno strumento sviluppato dalla fondazione “Laura and John Arnold” con sede nel Texas ed è stato concepito per fornire ai giudici informazioni più obiettive al fine di prendere decisioni più eque sui prigionieri, e viene applicato nel New Jersey. Il processo di valutazione inizia appena l’indagato viene sottoposto a rilevamento della impronte digitali, attraverso l’inserimento delle informazioni in un sistema informatico centralizzato. Alla prima udienza in carcere gli imputati compaiono in videoconferenza e il loro “punteggio di rischio” viene presentato al giudice. Gli imputati con punteggi inferiori vengono spesso lasciati sotto la supervisione del Tribunale fino alla successiva decisione. Il sistema mira a ridurre le sentenze distorte che potrebbero essere influenzate dalla razza, dal sesso, dal luogo di residenza, dal background lavorativo e dell’aspetto dell’imputato. Contro le critiche volte al sistema sulla sostituzione dell’operato del giudice, si afferma che il P.S.A è concepito esclusivamente per il processo preprocessuale e non per decidere sulle effettive pene detentive.

Anche in molti  altri paesi extra europei come Cina , Brasile, Perù,  India, Bolivia, Cile e Corea del Sud l’intelligenza artificiale ha creato dibattiti  di  notevole risonanza, soprattutto riguardo al tipo di riconoscimento giuridico di tali innovazioni, in termini di responsabilità e in ordine alla sempre più sentita esigenza di avvenire ad una legislazione chiara e trasparente e che sia inoltre conforme dal punto di vista etico.

3. Questioni attuali di diritto penale sostanziale e processuale

Il tema dell’intelligenza artificiale appare dunque di notevole complessità ed interesse e pone quindi molteplici problematiche relative alla sua applicazione, sia di natura sostanziale che processuale già precedentemente suesposte .

Si tratta di una vera e propria rivoluzione digitale già in atto e che pone e ha già posto, importanti quesiti in ordine alle conseguenze che possano derivare dall’applicazione dell’intelligenza artificiale nel campo del diritto penale, si pensi come già evidenziato, all’affidabilità di queste “macchine intelligenti” ed alle eventuali responsabilità che ne derivano, che di rispetto dei principi costituzionali e processual-sostanziali di carattere penale.

Questioni non meno rilevanti si prospettano in ordine alla violazione del principio di immediatezza di cui al comma 2, dell’art. 525 , c.p.p. e del divieto di pena criminologica, nonché sulle tematiche involventi l’analisi delle tempistiche, controllo e prevedibilità mediante l’utilizzo dell’intelligenza artificiale.

Infine e senza pretese di esaustività, si pone la problematica, anche in termini sostanziali, sulla possibilità di creare il c.d. “giudice robot”, che possa addirittura sostituire e non solo coadiuvare il magistrato nell’esercizio delle proprie funzioni e di come possa difficilmente risultare compatibile in termini di intelligenza emotiva ed empatia del giudice, sia con i nostri valori costituzionali (artt. 24, 25, 111  Cost.) e sovranazionali (art. 6 Cedu) .

Si auspica pertanto da parte del legislatore una disciplina chiara, trasparente e rispettosa di diritti fondamentali della persona umana, su un settore che non è più ipotizzabile nel futuro, ma che è presente oggi nella nostra quotidianità.


Salvis Juribus – Rivista di informazione giuridica
Direttore responsabile Avv. Giacomo Romano
Listed in ROAD, con patrocinio UNESCO
Copyrights © 2015 - ISSN 2464-9775
Ufficio Redazione: redazione@salvisjuribus.it
Ufficio Risorse Umane: recruitment@salvisjuribus.it
Ufficio Commerciale: info@salvisjuribus.it
***
Metti una stella e seguici anche su Google News

Articoli inerenti