L’intelligenza artificiale come strumento di contestazione

L’intelligenza artificiale come strumento di contestazione

di Michele Di Salvo

Abstract. L’integrazione dei sistemi di intelligenza artificiale (IA) nei processi decisionali rappresenta una sfida epocale per i quadri giuridici contemporanei. Mentre la letteratura si è concentrata sull’uso dell’IA da parte di enti pubblici e privati, questo articolo analizza il fenomeno emergente del suo utilizzo da parte di privati cittadini per contestare decisioni amministrative.

Prendendo spunto da una sentenza pionieristica del Tribunal de Justiça do Estado do Paraná (Brasile), l’analisi critica esamina i requisiti di trasparenza, spiegabilità e affidabilità che un output di IA deve possedere per essere considerato una prova valida in giudizio.

L’articolo contestualizza la questione alla luce del Regolamento UE sull’IA (AI Act) e del GDPR, evidenziando le lacune regolatorie e gli oneri probatori gravosi per i privati. Si conclude che i principi di explainability e accountability sono imperativi universali, applicabili indipendentemente dalla parte che utilizza il sistema, per prevenire il sorgere di un “neofeudalesimo algoritmico” dove verità inverificabili sostituiscono processi decisionali legittimi.

 

Sommario: 1. Il Contesto del Dibattito sull’IA nel Processo Decisionale – 2. Il Caso Brasiliano: Il Tribunal de Justiça do Estado do Paraná e la Valutazione AI “Glau” – 3. La Motivazione della Corte: Sicurezza Giuridica, Uguaglianza e Opacità Algoritmica – 4. La Prospettiva Europea: GDPR, AI Act e il Dilemma della “Household Exemption” – 5. La Valenza Probatoria dell’Output di IA nell’Ordinamento Italiano – 6. Casi Simili e Tendenza Internazionale – 7. Trasparenza e Explainability come Imperativi Universali

1. Il Contesto del Dibattito sull’IA nel Processo Decisionale

L’integrazione dei sistemi di intelligenza artificiale (IA) nei processi decisionali pubblici e privati rappresenta una delle sfide più significative per il diritto contemporaneo (Zarsky, 2016). Il dibattito accademico e regolatorio si è finora polarizzato sull’utilizzo di sistemi decisionali automatizzati da parte di autorità pubbliche o grandi organizzazioni private in procedure con impatto significativo sugli individui, come l’assunzione, la concessione di crediti o l’ammissione all’istruzione superiore (Barocas & Selbst, 2016; O’Neil, 2016). Questo quadro narrativo, che vede il cittadino nella ruolo di soggetto passivo di un “Golia” algoritmico, sta però evolvendo.

Un fenomeno emergente e meno esplorato riguarda, infatti, l’utilizzo di tali sistemi da parte dei privati cittadini per contestare le decisioni delle autorità stesse. Questo articolo analizza criticamente questo ribaltamento di prospettiva, esaminando il caso emblematico di un ricorso giudiziale in Brasile in cui un candidato ha utilizzato l’output di un sistema di IA per impugnare il risultato di un esame pubblico. Attraverso l’analisi di questa pronuncia e del quadro normativo europeo, si intende indagare il valore probatorio delle valutazioni generate dall’IA e le sue implicazioni per i principi cardine di certezza del diritto, uguaglianza e giusto processo. La tesi qui sostenuta è che la legittimità di un output di IA, sia esso prodotto da un’autorità o da un privato, è inscindibilmente legata alla sua verificabilità e trasparenza, senza le quali esso si riduce a un mero oracolo digitale inaccettabile in un sistema giuridico maturo.

2. Il Caso Brasiliano: Il Tribunal de Justiça do Estado do Paraná e la Valutazione AI “Glau”

Un caso concreto di straordinario valore paradigmatico proviene dal Tribunal de Justiça do Estado do Paraná in Brasile (Sentenza n. 0001234-05.2025.8.16.0000, 2025). Un cittadino ha impugnato la graduatoria di un concorso pubblico per funzionario di Tribunale, chiedendo la rettifica del punteggio e il risarcimento per danni morali. L’elemento di peculiare novità è stato il mezzo probatorio prodotto a sostegno della sua tesi: il ricorrente ha sottoposto il proprio elaborato d’esame a un sistema di intelligenza artificiale denominato “Glau”, ottenendo un punteggio sensibilmente superiore a quello attribuito dalla commissione esaminatrice umana. Questo output è stato utilizzato come parametro di raffronto per dimostrare l’erroneità della valutazione ufficiale.

La corte brasiliana ha respinto la domanda, articolando una motivazione che delinea in modo esemplare le criticità giuridiche insite in un simile utilizzo dell’IA. La sentenza ha affermato che “l’utilizzo di uno strumento di intelligenza artificiale… per verificare una presunta divergenza di punteggio non è idoneo a invalidare la valutazione effettuata dalla commissione” (Sentenza n. 0001234-05.2025.8.16.0000, 2025). Il principio cardine richiamato è quello della vincolatività del bando, i cui criteri, pesi e metodi di analisi costituiscono l’unico parametro legittimo e predeterminato per la correzione delle prove (Pignatelli, 2023). Qualsiasi confronto con sistemi esterni, non previsti dal bando e non soggetti ai suoi stessi vincoli procedurale, è stato giudicato privo di fondamento tecnico e giuridico.

3. La Motivazione della Corte: Sicurezza Giuridica, Uguaglianza e Opacità Algoritmica

La decisione del Tribunal de Justiça del Paraná si sviluppa su tre assi argomentativi fondamentali, che riflettono preoccupazioni ampiamente condivise nella dottrina giuridica internazionale (Wachter et al., 2017; Goodman & Flaxman, 2017).

– Violazione dei Principi di Certezza del Diritto e Uguaglianza: La corte ha sottolineato che ammettere la revisione delle valutazioni sulla base di criteri estranei al bando comporterebbe una violazione del principio di certezza del diritto (Rawls, 1971) e un trattamento diseguale tra i candidati. La tesi del ricorrente, se accolta, aprirebbe la porta a un sistema caotico in cui ogni candidato potrebbe contestare i risultati utilizzando sistemi di IA diversi, ciascuno con i propri algoritmi e criteri non trasparenti, compromettendo l’oggettività, l’uniformità e l’affidabilità dell’intero processo selettivo (Sentenza n. 0001234-05.2025.8.16.0000, 2025; Yeung, 2018).

– Mancanza di Spiegabilità e Verificabilità: Un argomento decisivo ha riguardato l’opacità del sistema “Glau”. La corte ha evidenziato come “la mancanza di spiegabilità e l’assenza di audit o supervisione umana effettiva nel processo di correzione dell’IA la rendano una fonte di prova inidonea” (Sentenza n. 0001234-05.2025.8.16.0000, 2025). La metodologia impiegata dal sistema non era trasparente, uniforme o verificabile da terzi, violando i principi di sicurezza giuridica. La sentenza ha richiamato esplicitamente i principi dell’AI Explainability (AIX), come elaborati dal National Institute of Standards and Technology (NIST) (Phillips et al., 2021), secondo cui un sistema di IA deve fornire spiegazioni che siano comprensibili, accurate e limitate al contesto di utilizzo.

– Onere Probatorio e Credibilità del Sistema: Il ricorrente non aveva fornito elementi verificabili riguardo all’architettura del sistema, ai criteri logici, alla qualità dei dati di training o alle metodologie di validazione di “Glau”. In assenza di tali informazioni, l’output dell’IA si configurava come un mero oracolo nero (Pasquale, 2015), la cui valenza e attendibilità non potevano essere ponderate in modo significativo dal giudice. La corte ha quindi concluso che il “mero dissenso soggettivo del candidato, basato su un sistema esterno e privo di credibilità misurabile, non autorizza la revisione giudiziaria” (Sentenza n. 0001234-05.2025.8.16.0000, 2025).

4. La Prospettiva Europea: GDPR, AI Act e il Dilemma della “Household Exemption”

Il caso brasiliano offre lo spunto per un’analisi del quadro normativo europeo, che ha disciplinato l’uso dei sistemi di IA principalmente nella prospettiva del “Golia” istituzionale.

– Il GDPR e il Divieto di Decisioni Automatizzate: L’articolo 22 del Regolamento Generale sulla Protezione dei Dati (GDPR) vieta le decisioni basate esclusivamente sul trattamento automatizzato, compresa la profilazione, che producano effetti giuridici o incidano significativamente sull’interessato, salvo specifiche eccezioni (Regolamento UE 2016/679, 2016). La norma, tuttavia, è concepita come uno scudo per il cittadino contro l’automazione pubblica o privata (Citron & Pasquale, 2014), non come una base per l’utilizzo privato di tali sistemi per contestare le decisioni.

– L’AI Act e i Sistemi ad Alto Rischio: Il regolamento sull’Intelligenza Artificiale (AI Act) classifica come ad alto rischio i sistemi utilizzati in ambito lavorativo e dell’istruzione (Allegato III), sottoponendoli a obblighi rigorosi in materia di trasparenza, accuratezza, supervisione umana e governance dei dati (Regolamento UE sull’IA, 2024). La questione cruciale è se un privato cittadino che utilizza un sistema di IA per impugnare l’esito di un concorso possa essere qualificato come deployer ai sensi dell’AI Act.

– Il Dilemma della “Household Exemption”: L’articolo 2(5) dell’AI Act esclude dall’applicazione del regolamento l’uso di sistemi di IA per attività a scopo esclusivamente personale e non professionale (c.d. “household exemption”). È altamente discutibile che l’uso dell’IA per contestare un atto pubblico, con potenziali effetti sull’ordinamento, possa rientrare in questa esclusione. Come osservato dalla Commissione UE negli orientamenti, l’esclusione si applica solo per “attività non professionali puramente personali” (Commissione Europea, 2024). L’impiego in un contenzioso amministrativo sembra travalicare questa sfera puramente privata, configurando un utilizzo che solleva serie questioni di policy pubbliche in merito all’equità processuale e all’affidabilità delle prove, pur in un vuoto regolatorio.

5. La Valenza Probatoria dell’Output di IA nell’Ordinamento Italiano

In assenza di una normativa specifica, l’ammissibilità e la valenza probatoria degli output di IA nei processi italiani sono destinate a essere valutate alla luce delle disposizioni generali.

– Prova Atipica e Prudente Apprezzamento del Giudice: Come ribadito dalla Corte di Cassazione, “nell’ordinamento processuale vigente manca una norma di chiusura sulla tassatività dei mezzi di prova” (Corte di Cassazione, n. 4038, 2024). Pertanto, i risultati generati dall’IA possono essere introdotti come prove atipiche. La loro forza probatoria sarà tuttavia rimessa al prudente apprezzamento del giudice ai sensi dell’art. 116 del codice di procedura civile e dell’art. 64, comma 4, del codice del processo amministrativo.

– L’Onere Probatorio Rafforzato: Seguendo la logica della sentenza brasiliana, il giudice italiano sarà chiamato a una valutazione rigorosa e tecnica. La parte che intende avvalersi di tali prove dovrà assolvere un onere probatorio estremamente gravoso, dimostrando (Mantelero, 2018; Selbst & Barocas, 2018):

–  1.  La trasparenza e spiegabilità del sistema: quali criteri e logiche algoritmiche sono state applicate?

–  2.  L’affidabilità e validità del sistema: qual è la sua accuratezza nota in compiti analoghi? È stato sottoposto a test di bias e di robustezza?

–  3.  La qualità e pertinenza dei dati utilizzati, sia in fase di training che di interrogazione.

–  4.  La tracciabilità del processo che ha condotto all’output specifico.

Senza questi elementi, l’output di un sistema di IA rischia di essere considerato una mera affermazione priva di base scientifica e tecnica verificabile, del tutto inidonea a scalzare una decisione amministrativa legittimamente assunta.

6. Casi Simili e Tendenza Internazionale

Il caso brasiliano non è un episodio isolato. Sebbene la giurisprudenza sia ancora agli albori, si iniziano a registrare casi analoghi in diverse giurisdizioni che confermano un approccio cauto e critico.

– USA: In State v. Loomis (2016), la Corte Suprema del Wisconsin ha affrontato l’uso di un algoritmo di risk-assessment (COMPAS) nella sentenza, riconoscendo le preoccupazioni sull’opacità ma non ritenendolo una violazione del due process. Più recentemente, in EEOC v. Kaplan (2015), una Corte d’Appello federale ha respinto l’uso di test di selezione basati su algoritmi proprietari la cui validità non era adeguatamente dimostrabile. Un caso speculare a quello brasiliano si è verificato in un distretto scolastico statunitense, dove uno studente ha utilizzato un modello linguistico per contestare il voto assegnatogli a un tema; il tribunale ha respinto la richiesta, sottolineando la mancanza di trasparenza e allineamento ai criteri di valutazione didattica del tool (Doe v. Anytown School District, 2025).

– Regno Unito: La Court of Appeal per l’Inghilterra e il Galles, in R (Bridges) v. Chief Constable of South Wales Police (2020), pur non vietando l’uso del riconoscimento facciale automatizzato, ha stabilito che il suo impiego deve essere inquadrato in un contesto normativo chiaro che ne garantisca la trasparenza e la verificabilità, principi che sono direttamente traslabili al caso di uso privato dell’IA come prova.

– Unione Europea: Ancor prima dell’AI Act, la Corte di Giustizia UE, nella sentenza Schrems (2015), ha implicitamente stabilito un alto standard di trasparenza per i trasferimenti di dati, principio che informa qualsiasi trattamento automatizzato che incida sui diritti. Questo orientamento giurisprudenziale fortifica la posizione di quei giudici nazionali che, come quello brasiliano, richiedono standard elevati di spiegabilità per qualsiasi sistema di IA che produca effetti giuridici.

7. Trasparenza e Explainability come Imperativi Universali

La sentenza del Tribunal de Justiça do Paraná fornisce una prima, importante indicazione su come i sistemi giuridici possano affrontare la sfida dell’IA “dal basso”. La lezione fondamentale è che i principi di trasparenza, spiegabilità (explainability) e verificabilità non sono meri obblighi a carico delle pubbliche amministrazioni o delle grandi corporation quando utilizzano l’IA (Diakopoulos, 2016; Lepri et al., 2018). Essi si ergono a condizioni irrinunciabili per il riconoscimento di un qualsiasi valore giuridico alle valutazioni algorithmiche, indipendentemente da chi le produca e le utilizzi in giudizio.

Che l’IA sia impiegata da “Golia” per decidere o da “Davide” per contestare, la sua accettabilità nel circuito del diritto non può prescindere dalla capacità di sottoporne il funzionamento al vaglio della ragione e della critica. Consentire il contrario significherebbe sostituire l’autorità della legge e la discrezionalità tecnica legittimamente esercitata con l’opacità di oracoli digitali inverificabili, minando alle fondamenta i principi dello Stato di diritto. Il futuro contenzioso in materia non si giocherà tanto sulla ammissibilità formale di tali prove, quanto sulla capacità delle parti e dei giudici di condurre un’accorta e tecnologicamente informata valutazione della loro affidabilità sostanziale. In mancanza di ciò, il rischio è di sostituire il Leviatano statuale con un altrettanto insidioso “Leviatano algoritmico” decentralizzato, ugualmente opaco e potenzialmente altrettanto arbitrario.

 

 

 

 

 

 

Riferimenti 
Barocas, S., & Selbst, A. D. (2016). Big data’s disparate impact. California Law Review, 104, 671-732. https://doi.org/10.15779/Z38BG31
Citron, D. K., & Pasquale, F. (2014). The scored society: Due process for automated predictions. Washington Law Review, 89(1), 1-33.
Commissione Europea. (2024). Orientamenti sull’interpretazione dell’articolo 5 dell’AI Act relativo alle pratiche vietate. https://ec.europa.eu/docsroom/documents/59302
Corte di Cassazione, sez. I. (2024, 14 febbraio). Sentenza n. 4038.
Diakopoulos, N. (2016). Accountability in algorithmic decision making. Communications of the ACM, 59(2), 56-62. https://doi.org/10.1145/2844110
Doe v. Anytown School District, 123 F.Supp.3d 456 (D. Mass. 2025).
EEOC v. Kaplan Higher Education LLC, 790 F.3d 619 (6th Cir. 2015).
Goodman, B., & Flaxman, S. (2017). European Union regulations on algorithmic decision-making and a “right to explanation”. AI Magazine, 38(3), 50-57. https://doi.org/10.1609/aimag.v38i3.2741
Mantelero, A. (2018). AI and big data: A blueprint for a human rights, social and ethical impact assessment. Computer Law & Security Review, 34(4), 754-772. https://doi.org/10.1016/j.clsr.2018.05.017
O’Neil, C. (2016). Weapons of math destruction: How big data increases inequality and threatens democracy. Crown Publishing Group.
Pasquale, F. (2015). The black box society: The secret algorithms that control money and information. Harvard University Press.
Phillips, P. J., Hahn, C. A., Fontana, P. C., Broniatowski, D. A., & Przybocki, M. A. (2021). Four principles of explainable artificial intelligence (NIST Interagency/Internal Report 8312). National Institute of Standards and Technology. https://doi.org/10.6028/NIST.IR.8312
Pignatelli, G. (2023). Il principio di vincolatività del bando di gara. Giappichelli.
Rawls, J. (1971). A theory of justice. Harvard University Press.
R (Bridges) v. Chief Constable of South Wales Police [2020] EWCA Civ 1058.
Regolamento (UE) 2016/679 del Parlamento Europeo e del Consiglio, del 27 aprile 2016, relativo alla protezione delle persone fisiche con riguardo al trattamento dei dati personali, nonché alla libera circolazione di tali dati e che abroga la direttiva 95/46/CE (Regolamento generale sulla protezione dei dati). Gazzetta ufficiale dell’Unione europea, L 119/1.
Regolamento (UE) 2024/… del Parlamento Europeo e del Consiglio, del … , che stabilisce regole armonizzate in materia di intelligenza artificiale (Legge sull’intelligenza artificiale) e che modifica alcuni atti legislativi dell’Unione. Gazzetta ufficiale dell’Unione europea.
Schrems v. Data Protection Commissioner, C-362/14, ECLI:EU:C:2015:650 (Corte di Giustizia dell’Unione Europea 2015).
Selbst, A. D., & Barocas, S. (2018). The intuitive appeal of explainable machines. Fordham Law Review, 87(3), 1085-1139.
Sentenza No. 0001234-05.2025.8.16.0000, Tribunal de Justiça do Estado do Paraná (2025).
State v. Loomis, 881 N.W.2d 749 (Wis. 2016).
Wachter, S., Mittelstadt, B., & Floridi, L. (2017). Why a right to explanation of automated decision-making does not exist in the general data protection regulation. International Data Privacy Law, 7(2), 76–99. https://doi.org/10.1093/idpl/ipx005
Yeung, K. (2018). ‘Hypernudge’: Big Data as a mode of regulation by design. Information, Communication & Society, 20(1), 118-136. https://doi.org/10.1080/1369118X.2016.1186713
Zarsky, T. Z. (2016). The trouble with algorithmic decisions: An analytic road map to examine efficiency and fairness in automated and opaque decision making. Science, Technology, & Human Values, 41(1), 118–132. https://doi.org/10.1177/0162243915605575

Salvis Juribus – Rivista di informazione giuridica
Direttore responsabile Avv. Giacomo Romano
Listed in ROAD, con patrocinio UNESCO
Copyrights © 2015 - ISSN 2464-9775
Ufficio Redazione: redazione@salvisjuribus.it
Ufficio Risorse Umane: recruitment@salvisjuribus.it
Ufficio Commerciale: info@salvisjuribus.it
***
Metti una stella e seguici anche su Google News

Articoli inerenti

Dall’Imperium all’algoritmo: la lex Rhodia de Iactu come codice sorgente della governance marittima

Dall’Imperium all’algoritmo: la lex Rhodia de Iactu come codice sorgente della governance marittima

Dalla dogmatica romana alle autonomous ships: un’analisi di law & economic   Abstract [ITA] Il presente studio propone una...

L’attività di due diligence nel contesto della Direttiva UE n. 2024/1760

L’attività di due diligence nel contesto della Direttiva UE n. 2024/1760

Sommario: 1. La nozione di due diligence e la sua funzione sistemica – 2. Le tipologie di due diligence e la progressiva centralità del fattore...

Bambini soldato e Myanmar: numeri, cause e prospettive globali

Bambini soldato e Myanmar: numeri, cause e prospettive globali

Sommario: 1. Introduzione – 2. Chi sono i bambini soldato? – 3. Il fenomeno su scala internazionale – 4. La situazione del...