L’empatia algoritmica nel processo giuridico

L’empatia algoritmica nel processo giuridico

Limiti ontologici della Mimesis tecnologica e riscoperta dell’Ars Boni et Aequi

ABSTRACT L’avvento dell’Intelligenza Artificiale (IA) nei sistemi giuridici impone una revisione delle categorie epistemologiche del giudizio. Il contributo, muovendo dalla distinzione storica tra il modello linguistico di Turing e quello cibernetico di Wiener, decostruisce l’illusione della neutralità algoritmica. Attraverso le lenti filosofiche di Hans Jonas e Bernard Stiegler, si evidenzia l’invalicabile divario ontologico tra l’agere computazionale e l’intelligere cosciente. La trattazione culmina nella proposta dell’”Empatia Algoritmica”: un paradigma pedagogico di matrice costruzionista (Papert) in cui il giurista, mantenendo il primato della sintesi teleologica, riafferma il diritto come ars boni et aequi, degradando l’IA da potenziale dominus a necessario auxilium.

 

Sommario: 1. Il “dispositivo complesso”: oltre la neutralità della tecnica – 2. Il limite ontologico: l’assenza del corpo e l’accesso all’universale – 3. Intelletto vs Ragione: la difesa della sintesi giuridica – 4. L’Empatia Algoritmica: un paradigma pedagogico-costruzionista – 5. Conclusioni: L’Ars Boni et Aequi nell’era digitale

 

1. Il “dispositivo complesso”: oltre la neutralità della tecnica

La pervasività odierna della tecnologia non può essere ridotta a mera strumentalità; essa si configura piuttosto come un “dispositivo complesso” che organizza e struttura la vita sociale, introiettando e proiettando modelli di convivenza progettati da forze geo-politicamente determinate¹. In tale scenario, l’illusione che l’algoritmo rappresenti un decisore neutro — in quanto privo di passioni umane — costituisce un equivoco epistemologico fatale. Come evidenziato da Teresa Numerico, il dispositivo tecnologico, gestito dai titolari dei Big Data, non è mai uno spazio vuoto, ma un territorio denso di valori impliciti e scelte preordinate². L’opacità della Black Box algoritmica, unitamente alla segretezza industriale, trasforma la decisione automatizzata in un oracolo insindacabile, spesso latore di pregiudizi (bias) che replicano le discriminazioni storiche, come dimostrato empiricamente dal caso COMPAS nella giurisprudenza statunitense³. 

È necessario dunque risalire alle origini della ricerca per comprendere la biforcazione che oggi ci interpella: da un lato la linea di Alan Turing, fondata sulla “simulazione” e sulla capacità della macchina di “fingere” (pretend to be a man) attraverso il linguaggio; dall’altro la linea cibernetica di Norbert Wiener, orientata all’integrazione sistemica⁴. L’attuale deriva tecnocratica sembra aver estremizzato la prima istanza, puntando a una macchina che non si limita a simulare, ma pretende di sostituire la decisione umana.

2. Il limite ontologico: l’assenza del corpo e l’accesso all’universale

La critica alla “giustizia predittiva” non può limitarsi al piano funzionale, ma deve investire quello ontologico. Gianfranco Bettetini, in tempi non sospetti, individuava nell’assenza del corpo (embodiment) il limite insuperabile dell’IA⁵. Essendo priva di una corporalità situata e plurirelazionata al mondo, la macchina non può accedere all’universale, condizione necessaria per l’esercizio del “buon senso”. L’IA opera nel dominio dell’agere sine intelligere (Floridi): essa processa dati con efficienza sovraumana, ma non comprende il significato delle proprie operazioni. Hans Jonas ammoniva contro la “sfrenata speculazione” di chi attribuisce coscienza a un processo meccanico: «Come non si può ascrivere sensibilità ad un termostato perché è sensibile agli stimoli esterni, tantomeno abbiamo motivo di ascrivere il pensiero ad un processo meccanico»⁶. Senza la coscienza, che è sintesi di ragione e sensibilità (“sentire” il diritto), non può esservi Giustizia. L’algoritmo può calcolare la sanzione, ma non può pesarne il valore etico né la finalità rieducativa.

3. Intelletto vs Ragione: la difesa della sintesi giuridica

La distinzione tra macchina e uomo trova una potente chiave di lettura nella dicotomia kantiana tra Intelletto (Verstand) e Ragione (Vernunft), recentemente ripresa da Bernard Stiegler⁷. L’IA rappresenta la forma pura dell’Intelletto analitico, capace di scomposizione e calcolo combinatorio. Il diritto, al contrario, è dominio della Ragione: facoltà di sintesi, di critica e di orientamento ai fini. La “governamentalità algoritmica” tenta di ridurre il diritto a pura statistica, eliminando lo scarto tra il fatto (l’essere) e la norma (il dover essere). Tuttavia, come ribadito da Tommaso Edoardo Frosini, la distinzione tra essere e dover essere è il presidio stesso della libertà giuridica⁸. Se affidiamo il giudizio alla macchina, riduciamo la complessità del reale a una serie di pattern ricorrenti, abdicando alla funzione essenziale del giurista: la capacità di decidere in condizioni di incertezza e di unicità.

4. L’Empatia Algoritmica: un paradigma pedagogico-costruzionista

Per uscire dall’alternativa sterile tra luddismo e tecnocrazia, propongo l’adozione di un nuovo paradigma relazionale: l’Empatia Algoritmica. Tale concetto non implica l’antropomorfizzazione del software, ma definisce uno “spazio pedagogico” ispirato al costruzionismo di Seymour Papert. Secondo Papert, l’apprendimento diventa “sintonico” quando si basa su tre principi: continuità con le conoscenze pregresse, potenza dei progetti e risonanza culturale⁹. Applicando questo modello al diritto, il giurista non deve essere un utente passivo (istruzionismo), ma un “programmatore di senso”. L’IA deve essere utilizzata secondo la logica dell’ “usare per imparare”: un artefatto cognitivo che permette di esplorare scenari, analizzare precedenti e verificare ipotesi, rimanendo però sempre subordinato alla sintesi umana. 

In questo “set di costruzione” digitale, l’uomo mantiene il controllo teleologico, utilizzando la macchina come auxilium (protesi) e mai come dominus (sostituto),  sempre e solo al fine dell’ “imparare ad usare”.

5. Conclusioni: L’Ars Boni et Aequi nell’era digitale

In ultima istanza, la proposta dell’Empatia Algoritmica mira a salvaguardare la definizione celsina del diritto quale Ars Boni et Aequi. L’equità (epieikeia), come insegnava Aristotele, è il correttivo della legge laddove questa pecca per la sua universalità¹⁰. Essa richiede la presa in carico del caso concreto nella sua irripetibile singolarità. L’algoritmo, che per sua natura generalizza e standardizza, è ontologicamente incapace di equità, sic et simpliciter. Solo riaffermando la centralità del giudizio umano, inteso come sintesi di logica e assiologia, potremo evitare che la giustizia si trasformi in una procedura automatica, asettica, innaturale. 

La tecnologia deve restare uno strumento nelle mani dell’uomo, l’unico ente capace di colmare ermeneuticamente la distanza tra la freddezza della norma e la carne viva dell’esperienza umana.

 

 

 

 

 

 

NOTE
¹ T. Numerico, Intelligenza artificiale e algoritmi: datificazione, politica, epistemologia, in Consecutio Rerum, 3.6 (2019), p. 241. 
² Ibidem. 
³ Cfr. A. Flores, K. Bechtel, C. Lowenkamp, False Positives, False Negatives, and False Analyses, in Federal Probation, 80.2 (2016); F. Donati, Intelligenza artificiale e giustizia, in A. D’Aloia (cur.), Intelligenza artificiale e diritto, Milano 2020. 
⁴ Sulla distinzione tra le due linee di ricerca cfr. N. Wiener, Cybernetics, MIT Press, 1948 e A.M. Turing, Intelligent Machinery (1948), in The Essential Turing, Oxford 2004.
 ⁵ G. Bettetini, La simulazione visiva, Bompiani, Milano 1992, pp. 102 ss. 
⁶ H. Jonas, Sullorlo dellabisso. Conversazioni sul rapporto tra uomo e natura, Einaudi, Torino 2000, p. 45. 
⁷ A. Rouvroy, B. Stiegler, Il regime di verità digitale. Dalla governamentalità algoritmica a un nuovo Stato di diritto, in La Deleuziana, 3 (2016).
 ⁸ T.E. Frosini, L’orizzonte giuridico dell’intelligenza artificiale, in A. Patroni Griffi (cur.), Bioetica, diritti e intelligenza artificiale, Mimesis, 2023, p. 201.
 ⁹ S. Papert, Mindstorms. Children, Computers, and Powerful Ideas, New York 1980 (trad. it. Mindstorms: bambini computers e creatività, Milano 1984). 
¹⁰ D. Ceccarelli Morolli, Il concetto di limitenel diritto (romano). Brevi riflessioni, in Roma e America online, 1 (2023), p. 81.
RIFERIMENTI BIBLIOGRAFICI
  • Bencivenga, G.M. (2025). Alla ricerca di una possibile Empatia Algoritmica. Modelli etico-giuridici dell’IA, in Iura & Legal Systems, Vol. 12, n. 3, pp. 41-54.
  • Bettetini, G. (1992). La simulazione visiva, Milano: Bompiani.
  • Ceccarelli Morolli, D. (2023). Il concetto di limitenel diritto (romano), in Roma e America online, 1.
  • Floridi, L. (2022). Etica dell’intelligenza artificiale, Milano: Raffaello Cortina.
  • Jonas, H. (2000). Sullorlo dellabisso, Torino: Einaudi.
  • Numerico, T. (2019). Intelligenza artificiale e algoritmi, in Consecutio Rerum, 3.6.
  • Papert, S. (1984). Mindstorms: bambini computers e creatività, Milano: Emme Edizioni.
  • Stanzione, P. (2024). Regolare il futuro, Relazione annuale Garante Privacy.
  • Stiegler, B., Rouvroy, A. (2016). Il regime di verità digitale, in La Deleuziana, 3.

Salvis Juribus – Rivista di informazione giuridica
Direttore responsabile Avv. Giacomo Romano
Listed in ROAD, con patrocinio UNESCO
Copyrights © 2015 - ISSN 2464-9775
Ufficio Redazione: redazione@salvisjuribus.it
Ufficio Risorse Umane: recruitment@salvisjuribus.it
Ufficio Commerciale: info@salvisjuribus.it
***
Metti una stella e seguici anche su Google News
The following two tabs change content below.

Marco Bencivenga

PhD in Scienze Giuridiche e Politiche , avvocato, docente. Laureato in Giurisprudenza, in Scienze dell'Educazione, Licenciatura en Derecho, ha conseguito diversi master, corsi di perfezionamento e abilitazioni all'insegnamento. Scrive su diverse riviste scientifiche in materia di Diritto Amministrativo e Storia del Diritto Romano

Articoli inerenti

La Sintesi Algoritmica e la Crisi dell’Ecosistema dell’Informazione

La Sintesi Algoritmica e la Crisi dell’Ecosistema dell’Informazione

di Michele Di SalvoSommario: 1. La Morte del Link e la Rinascita del Giardino Recintato – 2. Il Meccanismo del “Traffic Killer” e la...

L’uso delle direttive ministeriali negli istituti di spesa del processo

L’uso delle direttive ministeriali negli istituti di spesa del processo

Non sempre, con particolare riguardo agli istituti di spese di giustizia [1] e agli effetti fiscali negli atti del procedimento giurisdizionale...

Il ruolo del commercialista nella tutela dei dati personali: dal GDPR all’intelligenza artificiale

Il ruolo del commercialista nella tutela dei dati personali: dal GDPR all’intelligenza artificiale

Sommario: 1. Premessa – 2. Privacy e consulenza: una sinergia interdisciplinare – 3. L’audit privacy: anatomia di una verifica – 4. Sistemi di...