De-Ius ex machina: artificial intelligence e implicazioni nel diritto penale

De-Ius ex machina: artificial intelligence e implicazioni nel diritto penale

Sommario1. Le intelligenti attività di Law Enforcement e di polizia predittiva – 2. Delitto e castigo: il complesso processo di attribuzione della responsabilità penale alla rea I.A.

Stephen Hawking lo aveva predetto: «nell’arco dei prossimi cento anni, l’intelligenza dei computer supererà quella degli esseri umani». Il progresso irrompe senza chiedere il permesso, senza concedere il tempo di ridisegnare un nuovo rapporto tra esseri umani e macchine, travolgendone gli equilibri sui quali si reggono gli atomi della loro quotidianità, non da meno quella giuridica.

Preme chiedersi, pertanto, cosa debba intendersi per I.A. – intelligenza artificiale – una definizione che, per quanto suggestiva, denota una connessione tra machina e mente umana più profonda di quanto essa sia in realtà. Apparirebbe più appropriato parlare di razionalità, che difatti meglio risponde al misterioso meccanismo di funzionamento di essa, la quale – in base a specifici criteri di ottimizzazione delle risorse a disposizione – è in grado di vagliare la migliore azione da intraprendere per conseguire un determinato obiettivo[1].

Nella ampia sfera del diritto penale, l’I.A. si presenta come la candidata ideale ad apportare il proprio contributo in una serie considerevole di settori. All’intraprendenza umana l’arduo compito: sfruttarne le potenzialità per trarne beneficio.

1. Le intelligenti attività di Law Enforcement e di polizia predittiva

Uno fra i settori colpiti dall’avvento delle nuove tecnologie è quello della polizia predittiva. Nel concetto di polizia predittiva si risolve l’insieme delle attività volte a predire chi sia potenzialmente in grado di commettere un reato e a identificarne il momento e il luogo. La predizione si basa su una rielaborazione di diversi tipi di dati – si pensi a quelli relativi a notizie di reati precedentemente commessi, agli spostamenti dei soggetti sospettati, al periodo dell’anno, alle condizioni atmosferiche – che consentirebbero di pronosticare in modo sufficientemente attendibile, e soprattutto celere, quali sono le circostanze più fertili alla violazione della legge penale. Un vero e proprio studio criminologico che ha permesso l’individuazione di modelli criminali, agevolandone il perseguimento, tramite le attività di ricerca di hotspots e di crime linking.

La ricerca degli hotspots – le cosiddette “zone calde”, probabili scenari per la commissione di un reato – avviene mediante sistemi di rielaborazione di una quantità enorme di dati, relativi a fattori ambientali e spaziali che favoriscono la criminalità – quali il Risk Terrain Modeling (RTM) – o altresì estrapolati dalle denunce pervenute: tale sarebbe la logica del software X-LAW, in uso presso la polizia italiana.

I sistemi di crime linking si basano sull’idea di fondo che alcune forme di criminalità si manifesterebbero in un arco temporale e in una zona geografica molto circoscritti – cosidetti near repeat crimes, o reati a ripetizione ravvicinata[2] – pertanto l’analisi di questo tipo di informazione consentirebbe non solo una adeguata prevenzione ma anche la ricostruzione della carriera criminale del soggetto profilato, fornendo tracce di indagine utili per l’eventuale attribuzione di una responsabilità penale a carico dello stesso. Che la polizia predittiva sia una realtà esistente e affermata è dunque assodato e, seppur in progressiva evoluzione e perfezionamento, non può negarsi che l’algoritmo poliziotto sia stato uno strumento particolarmente utile alla repressione di talune fattispecie – certo non tutte – di reato[3]. Ciò nonostante, l’utilizzo di detti strumenti non è privo di inconvenienti. La scarna regolamentazione normativa di essi, il necessario bilanciamento tra esigenza di prevenzione e tutela della privacy, la possibilità che i fattori di pericolosità siano identificati in caratteristiche etniche o sociali con conseguente violazione del basilare principio di non discriminazione sono solo alcune tra le zone d’ombra che si levano attorno ai meccanismi di I.A., senza tralasciare il rischio che l’efficiente modalità di funzionamento degli stessi si tramuti nel loro più grande inconveniente. Se un software individuasse un certo hotspot, i controlli e i pattugliamenti si concentrerebbero prevalentemente su di esso tralasciandone altri che – a causa dell’assenza di interventi – potrebbero, a loro volta, divenire zone calde sprovviste dal presidio della polizia; zone franche per la commissione di reati, in conclusione[4]. In medio stat virtus: la deriva tecnologica potrebbe ignorare la parte mutevole e imprevedibile dell’agire umano; evitarla, pertanto, può essere utile a non incorrere in tale difettoso circolo vizioso.

2. Delitto e castigo: il complesso processo di attribuzione della responsabilità penale alla rea I.A.

Un differente profilo di indagine, opposto rispetto al precedente in quanto rivolto ad un uso negativo dell’I.A., è quello che ne studia i software quali possibili strumenti o autori di fatti di reato.

Che l’uomo si serva di tali meccanismi per scopi criminali è evidente dalla grande quantità di reati, più recenti e frequenti che mai. Alla stretta collaborazione – una dipendenza, nei casi più estremi – scaturita tra uomo e tecnologia, grazie all’elevato livello di progresso raggiunto in questo campo, è conseguito l’affidamento più o meno consapevole di una serie innumerevole di dati, su cui si riversa l’obiettivo criminale: i reati informatici ed economici, la violazione della privacy, della proprietà intellettuale, il bagarinaggio online sono solo alcune tra le numerose ipotesi di illecita aggressione di essi. La questione posta all’attenzione certo non è nuova al diritto penale il quale da sempre tenta di adeguarsi all’evoluzione storica, sociale – nondimeno tecnologica – al fine di scongiurare il pericolo che nuovi beni giuridici restino privi di un’adeguata tutela rispetto ai molteplici nuovi schemi di aggressione degli stessi, mediante la creazione di norme incriminatrici ad hoc o tramite la rivisitazione di quelle esistenti.

Problemi altrettanto complessi si pongono in relazione all’ipotesi in cui il meccanismo di I.A. possa qualificarsi quale autore del reato. Tutt’altro che sporadici sono i casi in cui i software collaborino o si sostituiscano all’uomo nella commissione di esso, rendendo particolarmente complesso il processo di imputazione giuridica del fatto. Dinanzi a un criminale disumano, perfettamente in grado di apprendere dalla propria esperienza e di interagire con il mondo esterno, sembra difficile poter escludere una forma autonoma di responsabilità. Addirittura, in molti casi l’I.A. può apprendere non solo dall’esperienza propria, ma anche da quella dei suoi “simili”, mediante il ricorso alle tecnologie di cloud computing. Collegare tra loro più soggetti artificiali e renderli capaci di scambiarsi informazioni in cloud, permette infatti di sommare le “esperienze di vita” di una moltitudine di macchine intelligenti per incrementare esponenzialmente la rapidità di apprendimento di tali soggetti robotici: diminuendo in parallelo, tuttavia, il grado di controllo che l’uomo è in grado di esercitare nei loro confronti[5]. D’altro canto, riconoscere una tale autonomia decisionale della macchina produrrebbe l’esito, di dubbio accoglimento, della alienazione della responsabilità[6] dell’agente umano, una forma di de-responsabilizzazione cui conseguirebbe un indebolimento della tutela non indubitabilmente compensato dall’equiparazione di un software all’uomo. È la stessa idea di colpevolezza che, di per sé, sembra di difficile riferimento a qualcosa di diverso dall’essere umano, con essa esprimendosi il coinvolgimento soggettivo, personalistico, dell’autore al fatto commesso, la possibilità di muovergli un rimprovero, sul presupposto che in capo a questo soggetto siano ravvisabili l’imputabilità, il dolo o la colpa, la conoscenza, o per lo meno la conoscibilità della legge penale violata[7].

Questo tradizionale concetto di colpevolezza non sembra essere da ostacolo a coloro che ritengono che i recenti miglioramenti sempre più veloci della tecnologia informatica hanno permesso la messa a punto di una nuova generazione di sistemi capaci di rivaleggiare con le capacità umane in determinati domini o in compiti specifici – o addirittura di superarle. Questi sistemi sono ben più autonomi di quanto le persone si accorgano, in quanto in grado di imparare dalle loro stesse esperienze e di intraprendere azioni neanche lontanamente contemplate dai loro progettisti[8], con ciò escludendosene l’imputabilità in nome di una già ipotizzata e parzialmente condivisa responsabilità delle cose.


[1] F. Basile, Intelligenza artificiale e diritto penale: quattro possibili percorsi di indagine, in Diritto penale e uomo, 2019.
[2] F. Basile, op. cit.
[3] Tra questi, i reati come rapine, borseggi e furti i quali hanno le caratteristiche di essere ciclici e stanziali perché prodotti da soggetti deviati modestamente organizzati, che usano questi espedienti per costruire un profitto in un arco temporale relativamente breve.
[4] F. Basile, op. cit
[5] A. Cappellini, Machina delinquere non potest? Brevi appunti su intelligenza artificiale e responsabilità penale, in Discrimen, 2019.
[6] C. Bagnoli, Teoria della responsabilità, 2019.
[7] F. Basile, op. cit.
[8] F. Basile, op. cit

Salvis Juribus – Rivista di informazione giuridica
Direttore responsabile Avv. Giacomo Romano
Listed in ROAD, con patrocinio UNESCO
Copyrights © 2015 - ISSN 2464-9775
Ufficio Redazione: redazione@salvisjuribus.it
Ufficio Risorse Umane: recruitment@salvisjuribus.it
Ufficio Commerciale: info@salvisjuribus.it
***
Metti una stella e seguici anche su Google News

Articoli inerenti