
Quando la sentenza viene inventata dall’A.I.: la responsabilità di giudici e avvocati
di Michele Di Salvo
Il presente articolo di commento trae spunto da due vicende: una italiana che coinvolge gli avvocati, ed una americana, che invece coinvolge il testo delle motivazioni di sentenze scritte da giudici.
Ciò dimostra come il tema non sia solo trasversale, ma non riguardi solo “una parte” del procedimento giudiziario. Inoltre è particolarmente rilevante quando – oltre agli interessi dei soggetti coinvolti, ad esempio in ambito civile ed amministrativo – incide anche sulle libertà personali riguardando la sfera penalistica.
L’ordinanza del 14 marzo 2025 del Tribunale di Firenze ha segnalato l’incidente in cui è incorso un avvocato, attraverso la citazione in un atto difensivo di una sentenza inesistente suggerita da un sistema di intelligenza artificiale. Era solo questione di tempo e puntualmente è arrivato anche il primo provvedimento di un Tribunale italiano che segnala un episodio di allucinazione da AI in ambito processuale.
Il caso è ormai noto: il Tribunale di Firenze – Sezione Imprese – con l’ordinanza collegiale in data 14.3.2025 si pronunciava nei seguenti termini: “Il difensore della società costituita dichiarava che i riferimenti giurisprudenziali citati nell’atto erano stati il frutto della ricerca effettuata da una collaboratrice di studio mediante lo strumento dell’intelligenza artificiale “ChatGPT”, del cui utilizzo il patrocinatore in mandato non era a conoscenza. L’IA avrebbe dunque generato risultati errati che possono essere qualificati con il fenomeno delle cc.dd. allucinazioni di intelligenza artificiale, che si verifica allorché l’IA inventi risultati inesistenti ma che, anche a seguito di una seconda interrogazione, vengono confermati come veritieri. (…) Ora, fermo restando il disvalore relativo all’omessa verifica dell’effettiva esistenza delle sentenze risultanti dall’interrogazione dell’IA, (…). L’indicazione di estremi di legittimità nel giudizio di reclamo ad ulteriore conferma della linea difensiva già esposta dalla si può quindi considerare diretta a rafforzare un apparato difensivo già noto e non invece finalizzata a resistere in giudizio in malafede, conseguendone la non applicabilità delle disposizioni di cui all’ art. 96 c.p.c.”.
Altri casi di allucinazioni – ovvero risposte parzialmente o completamente inventate dai sistemi di intelligenza artificiale, che traslate in ambito forense si sostanziano nella vera e propria invenzione di precedenti giurisprudenziali in realtà inesistenti – erano già stati segnalati dalle corti statunitensi.
Nota è la vicenda dell’avvocato Steven Schwartz, che nel 2023 aveva citato sentenze inesistenti nel corso di un procedimento avanti alla Corte distrettuale di New York.
In quella occasione il giudice distrettuale statunitense ordinò agli avvocati coinvolti nell’incidente ed al loro studio legale – Levidow, Levidow & Oberman – di pagare una multa complessiva di 5.000 dollari, con la motivazione che gli avvocati hanno agito in malafede ed hanno compiuto “atti di consapevole elusione” e reso “dichiarazioni false e fuorvianti al tribunale”.
Ricordiamoci per il momento di tanto – giusto – rigore, perché ci torneremo.
Nel caso italiano, il Tribunale si è dimostrato sicuramente più clemente, ritenendo non sussistere gli estremi per ritenere che la parte avesse resistito in giudizio in malafede e, quindi, per irrogare una condanna ai sensi dell’articolo 96 c.p.c.
A livello meramente interpretativo, l’uso dell’intelligenza artificiale generativa ai fini dell’effettuazione di una ricerca giurisprudenziale sembra rientrare nei limiti consentiti da parte del disegno di legge recentemente approvato dal Senato in materia di intelligenza artificiale, che con riguardo all’utilizzo di tale tecnologia da parte dei professionisti – all’articolo 13 primo comma – ha introdotto la seguente previsione: “L’utilizzo di sistemi di intelligenza artificiale nelle professioni intellettuali è finalizzato al solo esercizio delle attività strumentali e di supporto all’attività professionale e con prevalenza del lavoro intellettuale oggetto della prestazione d’opera”.
Una ricerca giurisprudenziale effettuata attraverso un sistema di AI rappresenta, infatti, un’attività strumentale e di supporto, certamente non prevalente rispetto al lavoro intellettuale dell’avvocato nella stesura di una memoria difensiva.
Permesso non significa di certo “sempre consentito”, e soprattutto in una sfera tanto delicata il “consentire” dovrebbe essere accompagnato sempre da un “stringentemente sorvegliato e verificato”, visti gli interessi in gioco, e soprattutto tenendo conto della straordinaria diligenza professionale che dovrebbe accompagnarsi alla professione legale.
Giova anche ricordare quanto previsto dalla “Carta dei Principi per un uso consapevole di strumenti di intelligenza artificiale in ambito forense”, recentemente adottata da parte dell’Ordine degli Avvocati di Milano che sul punto prescrive il dovere di competenza ed il principio della centralità della decisione umana.
Con riguardo al dovere di competenza, la Carta dei Principi precisa: “E’ essenziale comprendere le funzionalità e i limiti dei sistemi di AI utilizzati, per garantire che i risultati siano accurati e appropriati al contesto legale”. Ed aggiunge: “Gli avvocati devono essere capaci di identificare e gestire i rischi associati all’uso dell’AI evitando una dipendenza da risultati automatizzati”.
Nel caso dell’ordinanza da cui siamo partiti, se il professionista avesse effettuato un corretto governo di questi principi, l’incidente occorso avrebbe potuto essere evitato. E ciò in quanto, anche nei rapporti con i collaboratori, ove il titolare di uno studio non intenda consentire l’utilizzo di strumenti di intelligenza artificiale – ormai ampiamente diffusi e di semplice accessibilità – avrebbe avuto l’onere di specificare il divieto, nelle proprie policy di Studio (o con altro mezzo).
Ove invece l’utilizzo sia consentito è importante che vengano definiti i limiti e le modalità con cui tali strumenti possono essere utilizzati nello svolgimento della professione, nonché – ci sembra il caso di aggiungere – idonee policy di verifica ex-post.
In questo senso per altro va anche la Carta dei Principi che richiama anche un ulteriore dovere: “Gli avvocati hanno il compito di intervenire attivamente per valutare criticamente i risultati prodotti dalle tecnologie di AI, assicurandosi che il processo di elaborazione non sia negativamente condizionato dagli algoritmi. Ogni risultato generato dall’AI deve essere sottoposto a un esame umano per garantire la sua adeguatezza, accuratezza e conformità ai principi etici e legali”.
Nel caso fiorentino sarebbe stato sufficiente un double check dei risultati prodotti dal sistema di AI, non interrogando nuovamente il medesimo sistema – come sembra essere avvenuto – ma attraverso le banche dati giurisprudenziali di uso comune.
Il difensore giustificava l’incidente occorso, dichiarando che i riferimenti giurisprudenziali citati nell’atto erano stati il frutto della ricerca effettuata da una collaboratrice mediante lo strumento dell’intelligenza artificiale “ChatGPT”, del cui utilizzo il patrocinatore in mandato non era a conoscenza.
In proposito, è utile richiamare un ulteriore obbligo previsto dal DDL licenziato dal Senato (articolo 13, secondo comma): “Per assicurare il rapporto fiduciario tra professionista e cliente, le informazioni relative ai sistemi di intelligenza artificiale utilizzati dal professionista sono comunicate al soggetto destinatario della prestazione intellettuale con linguaggio chiaro, semplice ed esaustivo”.
Il medesimo obbligo di trasparenza dovrebbe, a maggior ragione, esistere tra i professionisti che lavorano su una medesima pratica, affinché il responsabile dell’incarico sia consapevole dell’utilizzo di uno strumento di AI e possa adottare tutte le misure utili o necessarie per contenere i possibili rischi.
Infine – e questo esula dalla difesa di se stesso adottata dal difensore – sarebbe il caso, per rispetto della responsabilità e della qualità di professionista degli avvocati, di evitare uno scaricabarile di questo genere. Quand’anche il fatto fosse stato compiuto da un collaboratore, compete al professionista incaricato leggere, rileggere e verificare l’atto, altrimenti in sé viene meno la distinzione tra il professionista e un collaboratore (professionista che in quanto alle risponde in prima persona anche degli atti del collaboratore).
Oltre all’Ordine degli Avvocati di Milano, numerosi sono gli organismi internazionali che hanno elaborato proprie linee guida circa l’utilizzo dell’intelligenza artificiale in ambito forense (tra le altre, si vedano Artificial Intelligence Strategy della Corte di Giustizia dell’Unione Europea; Practical guidance for the use of generative artificial antelligence in the practice of law – State Bar of California).
Il Tribunale di Firenze – ritenuta l’assenza di malafede – si è dimostrato clemente, limitandosi a censurare il disvalore dell’omessa verifica, verosimilmente anche in considerazione della novità del fenomeno; è, tuttavia, probabile che in futuro anche le corti nazionali possano adottare verso tali condotte un metro di valutazione più severo.
Torniamo però agli Stati Uniti, dove i tribunali si erano dimostrati molto meno clementi.
Due giudici federali statunitensi, operanti in Mississippi e New Jersey, hanno “ritirato” le sentenze da loro emesse in due cause giudiziarie non correlate, dopo che i rispettivi avvocati difensori hanno contestato, in modo formale, l’accuratezza dei testi giudiziari, indicando gravi errori fattuali e procedurali.
In Mississippi un giudice distrettuale ha sostituito un’ordinanza emessa nel contesto di una controversia sui diritti civili, dopo che gli avvocati statali hanno rilevato che la medesima conteneva un’identificazione errata di querelanti e imputati, oltre a riportare accuse assenti nella denuncia originale.
La sentenza conteneva affermazioni basate su presunte testimonianze di individui che neppure comparivano sul fascicolo del procedimento.
L’ordinanza originaria, emessa il 20 luglio 2025 e attinente all’applicazione di un divieto statale ai programmi di diversità, equità e inclusione in istituti universitari e scuole pubbliche, è stata perciò sostituita il 23 luglio per correggere le lacune sostanziali indicate dagli avvocati.
In New Jersey invece un giudice distrettuale ha parimenti “ritirato” la decisione relativa a una causa sui titoli azionari contro una company farmaceutica. Gli avvocati difensori hanno contestato la circostanza che la sentenza contenesse citazioni di precedenti giurisprudenziali inesistenti, nonché attribuzioni errate di dichiarazioni a imputati.
Dal draft incriminato è emerso che risultava inserita, in modo inavvertito, una ricerca prodotta tramite intelligenza artificiale eseguita (secondo la difesa dell’ufficio del giudice) da un assistente temporaneo, che non era stata revisionata in modo adeguato prima della pubblicazione. L’utilizzo non autorizzato di strumenti di IA nella formulazione delle decisioni giudiziarie viola le policy interne del tribunale.
In ambedue le vicende i giudici non hanno dettagliato pubblicamente le ragioni che hanno generato gli errori contenuti nelle sentenze primigenie. E neppure gli avvocati coinvolti hanno menzionato la possibile influenza, o la responsabilità, dell’intelligenza artificiale nel generare tali imprecisioni.
In passato vicende similari hanno comportato sanzioni o richiami verso avvocati, a causa di condotte deontologicamente scorrette, consistenti nell’aver depositato documenti contenenti citazioni false o imprecise, attribuite a errati utilizzi di software di IA il cui output può generare le cosiddette “allucinazioni”, ovvero dati inventati o inesatti.
Come ha evidenziato Keith Swisher, professore di etica legale presso la facoltà di giurisprudenza dell’Arizona University, citato da Mike Scarcella su Reuters, l’aumento di errori procedurali correlati all’utilizzo di tecnologie emergenti necessita di un rigoroso check e di una verifica da parte dei professionisti legali, nella finalità di evitare conseguenze di rilievo nel contesto della giustizia.
Indipendentemente dalla prospettiva da cui si osservi quanto accaduto, emerge con chiarezza la funzione fondamentale della AI Literacy in ambito forense, volta ad accompagnare i professionisti verso una maggior consapevolezza circa le potenzialità ed i limiti degli strumenti di intelligenza artificiale anche nello svolgimento della professione.
È inevitabile del resto che, quando una nuova tecnologia così innovativa e potente viene introdotta sul mercato, ci voglia tempo prima che inizi ad essere usata con cognizione e sapienza da parte degli operatori, ivi inclusi professionisti ed avvocati.
La formazione, in questa prospettiva, può essere uno straordinario acceleratore e rappresenta un passaggio imprescindibile, in special modo in settori che, in considerazione degli interessi coinvolti, meritano una speciale attenzione, come la giustizia e la difesa dei diritti.
L’asimmetria americana riguardo al medesimo errore compiuto da avvocati e da giudici è indicativa di un rischio concreto anche in casa nostra, dove la responsabilità del magistrato è estremamente tenue.
Appare inoltre estremamente puerile – dato il livello professionale in causa – scaricare la responsabilità su un “collaboratore di studio” o su un “collaboratore temporaneo” del tribunale.
Ciò anche perché – ne siamo certi sulla base dei precedenti – i giudici americani hanno sempre ritenuto responsabili gli avvocati per gli errori dei propri collaboratori.
Il punto non è solo il doveroso ricorso ad una maggiore supervisione, controllo e verifica, ex post rispetto alla ricerca, ma uscire dall’ambiguità della percezione che l’Intelligenza Artificiale non sbaglia.
Ecco che – se chiariamo definitivamente questo punto – forse le responsabilità necessarie e il lavoro di verifica indispensabile, acquisiscono nuovo valore e significato, restituendo al contempo nuovo valore e significato all’attività umana.
Salvis Juribus – Rivista di informazione giuridica
Direttore responsabile Avv. Giacomo Romano
Listed in ROAD, con patrocinio UNESCO
Copyrights © 2015 - ISSN 2464-9775
Ufficio Redazione: redazione@salvisjuribus.it
Ufficio Risorse Umane: recruitment@salvisjuribus.it
Ufficio Commerciale: info@salvisjuribus.it
***
Metti una stella e seguici anche su Google News







