Cyber-imputati: intelligenza artificiale e responsabilità penale

Cyber-imputati: intelligenza artificiale e responsabilità penale

Prima Legge della Robotica: “un robot non può recar danno a un essere umano né può permettere che, a causa del suo mancato intervento, un essere umano riceva danno”.

Seconda Legge della Robotica: “un robot deve obbedire agli ordini impartiti dagli esseri umani, purché tali ordini non vadano in contrasto alla prima legge”.

Terza Legge della Robotica: “un robot deve proteggere la propria esistenza, purché la salvaguardia di essa non contrasti con la prima o con la seconda legge”.

Così Asimov riassumeva l’ordinamento interno del mondo cibernetico. Tuttavia, oggi che la presenza dell’Intelligenza Artificiale è massiccia, possiamo affermare che queste regole trovano asilo nei più celebri racconti di fantascienza, ma non godono sempre di applicazione nel mondo reale, nonostante il Parlamento europeo abbia affermato che – in ogni caso – “le leggi di Asimov devono essere considerate come rivolte ai progettisti, ai fabbricanti e agli utilizzatori di robot, compresi i robot con capacità di autonomia e di autoapprendimento integrate, dal momento che tali leggi non possono essere convertite in codice macchina” (Risoluzione del Parlamento europeo del 16 febbraio 2017 recante raccomandazioni alla Commissione concernenti norme di diritto civile sulla robotica, punto T).

Si parla di Intelligenza Artificiale con riferimento all’abilità di una macchina di riprodurre funzioni intellettive tipicamente umane. In questo particolare campo negli ultimi anni sono stati fatti enormi progressi, che hanno portato alla creazione di macchine sempre più simili all’uomo.

Questa circostanza non è priva di conseguenze sul piano giuridico: come comportarsi nel caso in cui un’azione di un macchinario dotato di Intelligenza Artificiale porti al verificarsi di un evento criminoso?

Questo interrogativo – che prende le mosse da eventi come l’uccisione, da parte di un drone, di un sospetto cecchino a Dallas nel 2016 durante una sparatoria contro la polizia – ha portato al fiorire di un vivace dibattito circa l’ascrivibilità o meno della responsabilità penale in capo ad una macchina.

A tal proposito, occorre distinguere due ipotesi: il caso in cui la macchina venga utilizzata come strumento per la commissione del reato (es.: computer usati per crimini informatici) e il caso in cui rivesta essa stessa il ruolo di autrice del reato (es.: automobili con pilota automatico che provochino un incidente nell’ambito del quale qualcuno resti ucciso).

Nella prima eventualità, poiché la macchina lavora su istruzioni dell’uomo, è ragionevole ritenere che sia quest’ultimo a dover rispondere del delitto eventualmente posto in essere.

Più complessa e delicata risulta essere, invece, la seconda questione. Invero, in un mondo in cui i computer e i robot conquistano rapidamente spazi di autonomia non è più corretto pensare che essi si limitino ad agire sulla base di precise direttive di chi ne faccia utilizzo, ben potendo, in determinati casi, prendere iniziative proprie. È il caso, ad esempio, delle automobili con il pilota automatico, programmate per scegliere il “male minore” in situazioni di pericolo e che, quindi, in circostanze estreme, si trovano a dover decidere se sia preferibile cagionare la morte di un pedone piuttosto che sacrificare la vita del proprio passeggero.

Con riferimento a questa tipologia di situazioni, si sono sviluppate due linee di pensiero contrastanti: l’una che afferma la possibilità di ritenere penalmente responsabile la macchina e l’altra che la nega.

La prima tesi è sostenuta da Gabriel Hallevy, professore ordinario di diritto penale in Israele, secondo il quale un computer dotato di Intelligenza Artificiale sarebbe in astratto punibile (autonomamente o unitamente al programmatore / utente). Prendendo come riferimento i sistemi di common law, infatti, il Prof. Hallevy afferma che, in caso di macchina autrice di reato, risulterebbero sussistenti sia l’elemento oggettivo dell’actus reus – cioè l’azione materiale posta in essere e scaturente nell’evento criminoso (ad es.: un movimento del robot) – sia l’elemento soggettivo della mens rea, da intendersi quale senso di consapevolezza. Invero, i computer ormai sono in grado di rappresentarsi la realtà attraverso l’acquisizione e la rielaborazione dei dati. Ciò consentirebbe loro di sviluppare una sorta di volontà consapevole rispetto al proprio agire.

A tale tesi si oppongono i sostenitori del principio “machina deliquere (et puniri) non potest”. In particolare, costoro, facendo leva sul principio di colpevolezza – che l’ordinamento italiano cristallizza nell’assunto in base al quale “la responsabilità penale è personale” (art. 27, co. 1, Cost.) – negano la punibilità della macchina, tenuto conto del fatto che, quand’anche un sistema di Intelligenza Artificiale dovesse effettivamente cagionare un evento criminoso, non potrebbe ritenersi responsabile in quanto questo non sarebbe frutto di una libera scelta, bensì di un’azione dovuta in base al software di programmazione interno. Quello che manca è, dunque, una vera e propria coscienza, elemento fondamentale perché possa parlarsi di sussistenza dell’elemento soggettivo, in assenza del quale non vi è responsabilità.

In ogni caso, quand’anche si volesse riconoscere la punibilità delle macchine, si solleverebbe un ulteriore problema: quello legato all’efficacia della pena. Invero, nei confronti di un robot risulterebbero vane tanto la funzione preventiva, quanto quella deterrente e quella rieducativa della sanzione. Questo perché, non potendo provare sentimento alcuno, un sistema dotato di Intelligenza Artificiale non sarebbe intimorito dalle conseguenze negative delle proprie azioni, né potrebbero trarre da esse alcun insegnamento. Per questo c’è chi ipotizza di “punire” questi macchinari distruggendoli.

In ogni caso, ci troviamo di fronte ad un vuoto, che necessita di essere riempito. Il progresso tecnologico compie quotidianamente grandi passi avanti e l’uomo deve adattarsi a questo fenomeno anche dal punto di vista giuridico-legale, cercando di prospettare possibili soluzioni per le situazioni analizzate, tanto sotto il profilo della prevenzione quanto sotto quello della tutela e della pena.


Salvis Juribus – Rivista di informazione giuridica
Direttore responsabile Avv. Giacomo Romano
Listed in ROAD, con patrocinio UNESCO
Copyrights © 2015 - ISSN 2464-9775
Ufficio Redazione: redazione@salvisjuribus.it
Ufficio Risorse Umane: recruitment@salvisjuribus.it
Ufficio Commerciale: info@salvisjuribus.it
***
Metti una stella e seguici anche su Google News

Articoli inerenti