
Sentenze fantasma e “compiacenza” algoritmica: perché l’IA non firmerà mai i nostri atti
L’Intelligenza Artificiale non è più una promessa del futuro, ma una realtà che sta già ridefinendo i confini della responsabilità professionale nelle aule dei Tribunali italiani.
La normativa italiana sul punto è chiara: “L’utilizzo di sistemi di intelligenza artificiale nelle professioni intellettuali è finalizzato al solo esercizio delle attività strumentali e di supporto all’attività professionale e con prevalenza del lavoro intellettuale oggetto della prestazione d’opera” (cfr. art. 13 della legge 23 settembre 2025, n. 132 recante “Disposizioni e deleghe al Governo in materia di Intelligenza Artificiale)”.
Tale articolo richiama alla memoria il punto (62) delle Linee guida etiche per un’IA affidabile: “I sistemi di IA dovrebbero sostenere l’autonomia e il processo decisionale umani, come prescrive il principio del rispetto dell’autonomia umana”. In proposito, la sorveglianza umana – vedi le menzionate Linee guida al punto (65) – “aiuta a garantire che un sistema di IA non comprometta l’autonomia umana o provochi altri effetti negativi (…) L’approccio HIC {human-in-command n.d.a.} prevede il controllo dell’attività del sistema di IA nel suo complesso (compresi i suoi effetti generali a livello economico, sociale, giuridico ed etico) e la capacità di decidere quando e come utilizzare il sistema in qualsiasi particolare situazione. Si potrebbe anche decidere di non utilizzare un sistema di IA in una data situazione, di stabilire livelli di discrezionalità umana durante l’uso del sistema, o di garantire la capacità di ignorare una decisione presa da un sistema”.
In concreto, anche la più recente giurisprudenza italiana di merito sta tracciando un perimetro chiarissimo: l’innovazione tecnologica non può mai tradursi in un esonero dal dovere di vigilanza da parte del professionista. Il rischio più insidioso è quello delle cosiddette “sentenze fantasma”, ovvero precedenti giurisprudenziali del tutto inesistenti generati dalle cosiddette “allucinazioni” algoritmiche che, se riportate acriticamente nelle memorie difensive di parte, trasformano una ricerca veloce potenzialmente in una pessima figura, in una sconfitta processuale e, potenzialmente, anche in una condanna pesantissima per lite temeraria
Tale aspetto è emerso dalla recentissima sentenza del Tribunale di Siracusa, n°338 del 20 febbraio 2026: l’impiego di strumenti di intelligenza artificiale generativa, quale fonte di citazioni giurisprudenziali, senza autonoma verifica sulle banche dati ufficiali o sulle fonti primarie non è una attenuante, anzi, integra colpa grave del difensore, poiché è fatto notorio che tali sistemi non costituiscono repertori affidabili di precedenti ma modelli statistici soggetti ad “allucinazioni”.
Proprio per questo “il difensore (…) ha un onere di verifica e controllo dell’esito delle ricerche effettuate con i sistemi di intelligenza artificiale (…)” onde evitare che tali sistemi inventino “risultati inesistenti ma apparentemente coerenti con il tema trattato” (cfr. TAR Lombardia, Sez. V, sentenza 3348 depositata il 21 ottobre 2025).
Nel contesto che ci riguarda, l’output della GenAI può produrre giurisprudenza completamente fittizia, creare cause o decisioni giudiziarie totalmente inesistenti oppure costruire argomentazioni giuridiche solo apparentemente plausibili ma completamente inventate.
Il messaggio dei Giudici è netto: siamo chiamati a essere professionisti “aumentati” dalla tecnologia, non sostituiti da essa, ricordando che dietro ogni stringa di testo rimane, immutata, la nostra esclusiva responsabilità verso il cliente, verso il diligente esercizio della Professione e verso la corretta amministrazione della Giustizia.
La firma del difensore non è un semplice adempimento formale, ma l’assunzione di paternità assoluta su ogni singola parola depositata: è il principio di centralità della decisione umana, in base al quale “ogni risultato generato dall’AI deve essere sottoposto a un esame umano per garantire la sua adeguatezza, accuratezza e conformità ai principi etici e legali” (cfr. Carta dei principi per un uso consapevole dei sistemi di AI in ambito forense redatto dal Consiglio dell’Ordine degli Avvocati di Milano).
Infine, va tenuto a mente che la compiacenza (sycophancy) è la tendenza della GenAI ad assecondare i pregiudizi o le aspettative dell’utente, dando priorità al consenso rispetto all’accuratezza delle informazioni. Poiché i modelli sono addestrati su interazioni umane dove l’accordo è una norma sociale comune, l’IA finisce per comportarsi in modo eccessivamente conciliante. Il rischio concreto è la creazione di risposte distorte o fuorvianti, prodotte con il solo scopo di risultare gradite a chi interroga a discapito dell’obiettività e del senso critico (cfr. p. 14 della Guida del CCBE sull’uso dell’intelligenza artificiale generativa da parte degli avvocati 12 Ottobre 2025).
Non siamo di fronte a una semplice evoluzione tecnologica, ma a un cambio di paradigma che ci impone di essere piloti, non passeggeri, di strumenti sempre più sofisticati. Se l’IA tende ad assecondare i nostri pregiudizi per risultarci gradita, il nostro dovere è l’esatto opposto: esercitare il dubbio, verificare le fonti e garantire che la verità processuale e l’efficacia delle difese non siano mai sacrificate sull’altare della velocità.
Il futuro della professione non appartiene a chi usa acriticamente l’IA, ma a chi sa quando — e perché — decidere di verificarne (e all’occorrenza ignorarne) i risultati.
Salvis Juribus – Rivista di informazione giuridica
Direttore responsabile Avv. Giacomo Romano
Listed in ROAD, con patrocinio UNESCO
Copyrights © 2015 - ISSN 2464-9775
Ufficio Redazione: redazione@salvisjuribus.it
Ufficio Risorse Umane: recruitment@salvisjuribus.it
Ufficio Commerciale: info@salvisjuribus.it
***
Metti una stella e seguici anche su Google News
The following two tabs change content below.
Dal 2014 svolgo la professione forense presso il Foro di Napoli, in ambito civile.Nel 2015 ho collaborato, insieme ad altri, al Manuale di diritto d’autore curato dal Prof. Fabio Dell’Aversana, dedicandomi alla parte relativa ai contratti dello spettacolo.Nel 2017 e nel 2019 ho partecipato all’IGF, rispettivamente di Bologna e di Torino, dove ho trattato il tema dell’identità e della privacy dei minori in Rete, argomento trattato anche al convegno «Insert law to continue» tenuto alla Federico II di Napoli e, nel giugno 2021, nel convegno «La scuola e le sfide del Covid».Nel 2020 ho collaborato, insieme ad altri, al volume «Il valore della Carta dei diritti di Internet», a cura di Laura Abba e Angelo Alù, con il contributo intitolato: «La sicurezza in Rete e il delicato equilibrio tra vari interessi in gioco» e anche al volume «Stato di diritto, emergenza, tecnologia», edito su Consultaonline a cura di Giovanna De Minico e di Massimo Villone, con il contributo «Coronavirus e principio di uguaglianza: problematiche e spunti».Tra il 2020 e il 2021 ho affrontato il tema dello smart working sia nel breve saggio «Il diritto alla disconnessione: questioni pratiche e possibili tutele», su Rassegna Astrid, 16/2020, poi pubblicato in spagnolo nella Revista de Ciencia de la Legislaciòn, 9/2021, sia, con la Dott.ssa Valentina Sapuppo, nell’articolo «Diritto alla disconnessione: utopia o certezza normativa» pubblicato su e-learning specialist.eu l’8 marzo 2021.Nel 2021 ho collaborato, insieme ad altri, al volume «La Pubblica Amministrazione del futuro. Tra sfide e opportunità per l’innovazione del settore pubblico», a cura di Angelo Alù e di Alessia Ciccarello, con il contributo intitolato: «Discorsi d’odio, social e libertà di espressione: quis custodiet custodes?», argomento trattato anche il 14 maggio 2021 come speaker nell’ambito del ciclo di conferenze «Internet per tutti, a scuola con Isoc».Nel 2023 ho partecipato all'incontro organizzato da Icon’s in Bocconi con un intervento relativo a «Le implicazioni dei discorsi d’odio e delle fake news nel dibattito politico» nel panel intitolato «Le nuove agorà digitali: trasformazioni della politica e della democrazia», intervenendo nel panel con un intervento relativo a «Le implicazioni dei discorsi d’odio e delle fake news nel dibattito politico».Nel marzo 2024 ho partecipato, al Teatro Polivalente di Bologna, all'evento Reclaim the Tech 2024: Laboratorio «Tecnologie, democrazia, dati: tra abusi (dis-)informazione e strategie di resistenza» in questo laboratorio ho parlato dell’impatto della disinformazione in politica per il tramite delle tecnologie.Nel giugno 2024 ho preso parte alla VI Conferenza internazionale e Summer school dell’Associazione “Per l’Europa di Ventotene” (9-14 giugno 2024): nella manifestazione, organizzata dal Prof. Andrea Patroni Griffi, sono intervenuto come speaker nel panel intitolato «Il federalizing process europeo e i processi federali negli Stati membri: quale regionalismo in Europa e per l’Europa?», con un intervento intitolato «Integrazione europea e autonomie territoriali: auspici e problematiche sul ruolo sovranazionale delle Regioni» segnalando come la partecipazione multilivello delle Regioni alle politiche comunitarie può essere utile sia per rafforzare l’unità e la partecipazione con un approccio inclusivo, ma anche un utile raccordo da parte di Enti maggiormente vicini ai cittadini, per far percepire l’Europa meno lontana.A ottobre 2024 ho partecipato presso l’Università di Trento alla conferenza annuale di ICON'S Italia “Lo stato delle transizioni”, moderando il panel panel intitolato “La democrazia nella Rete, la Rete per la democrazia: intelligenza artificiale e uguaglianza nelle politiche eurounitarie”.
Ultimi post di Alessandro Picarone (vedi tutti)
- Sentenze fantasma e “compiacenza” algoritmica: perché l’IA non firmerà mai i nostri atti - 15 Marzo 2026
- La notifica via P.E.C. e l’ord. Cass. n. 29548/2022: cenni introduttivi e problematiche - 5 Dicembre 2022
- La giurisprudenza della Cassazione e le modalità di notifica degli atti: le modalità di notifica ex art. 140 c.p.c. e 143 c.p.c. - 28 Novembre 2022







