Quando l’intelligenza artificiale sbaglia, ma paga il cittadino

Quando l’intelligenza artificiale sbaglia, ma paga il cittadino

Sommario: 1. Il caso Hertz e la responsabilità degli algoritmi nell’economia automatizzata – 2. La trasparenza che si rovescia in abuso – 3. L’illusione della neutralità algoritmica – 4. La questione giuridica: chi risponde dell’errore della macchina? – 5. Dalla fiducia cieca alla responsabilità consapevole

 

1. Il caso Hertz e la responsabilità degli algoritmi nell’economia automatizzata

Nel linguaggio delle imprese digitali, l’intelligenza artificiale è ormai sinonimo di efficienza, imparzialità, rapidità. Una promessa di neutralità che spesso affascina più del risultato che produce. Il caso Hertz, emerso negli Stati Uniti nella primavera del 2025, dimostra però quanto fragile possa essere questa promessa, e quanto poco “intelligente” resti un sistema quando sostituisce la discrezionalità umana con un automatismo cieco.

La compagnia di autonoleggio ha introdotto nei suoi parcheggi scanner automatizzati, sviluppati dalla società israeliana UVeye, con l’obiettivo dichiarato di migliorare i controlli sui danni ai veicoli. Un gesto in apparenza progressivo: meno tempo per i controlli, meno conflitti con i clienti, più trasparenza. In teoria, un passo avanti. In pratica, un passo falso. Gli scanner, programmati per rilevare graffi e imperfezioni sulla carrozzeria, fotografano ogni dettaglio e lo trasformano in una segnalazione automatica di danno, con addebito immediato sulla carta del cliente.

Un utente, raccontano i media, si è visto chiedere 440 dollari per un graffio di un pollice sulla ruota: 250 per la riparazione, 125 per le spese di “processing” e 65 per la pratica amministrativa. Nessun confronto diretto, nessuna verifica tecnica, nessun margine di buon senso. L’AI decide, la fattura parte, il cliente paga.

Il sistema, inoltre, invia in automatico un’offerta di “sconto” se l’importo viene versato entro pochi giorni: una psicologia della pressione, mascherata da cortesia commerciale. Chi prova a contestare si scontra con chatbot impersonali, procedure digitali opache e tempi di risposta che superano spesso la settimana. Nel frattempo, la carta di credito è già stata addebitata.

2. La trasparenza che si rovescia in abuso

La narrazione ufficiale parla di oggettività e imparzialità. Eppure, proprio la pretesa di oggettività diventa qui un paravento: nessuno può verificare i criteri con cui l’algoritmo distingue un graffio da un riflesso, né controllare i dati tecnici (timestamp, esposizione, angolazione) che generano la decisione automatica. In assenza di accesso ai log o di un controllo umano obbligatorio, la “trasparenza” diventa unidirezionale: la macchina vede tutto, ma nessuno può guardare dentro la macchina.

Non si tratta solo di una questione tecnica. L’intero equilibrio del rapporto contrattuale viene alterato. L’utente, che in un contesto tradizionale potrebbe discutere, negoziare, fornire prova contraria, è ora ridotto a soggetto passivo di un flusso automatizzato. Il diritto di difesa – anche in una relazione privatistica – richiede la possibilità di comprendere e contestare. Quando ciò viene meno, la tutela si svuota, e l’AI diventa uno strumento di compressione dei diritti, non di garanzia.

3. L’illusione della neutralità algoritmica

Il caso Hertz non è isolato. Anche altre società, come Sixt, hanno adottato sistemi analoghi (il cosiddetto Car Gate), generando situazioni simili: fotografie scattate prima del noleggio, danni già esistenti addebitati come nuovi, clienti costretti a dimostrare l’impossibile. Il problema non è la tecnologia in sé, ma l’assenza di un quadro regolatorio che imponga un controllo umano effettivo.

L’Unione Europea, con l’AI Act, ha introdotto la nozione di “human oversight”, cioè la supervisione umana sui sistemi ad alto rischio. Ma nei contratti privati di consumo, questa vigilanza resta ancora un miraggio. Si preferisce affidarsi a un’idea di efficienza matematica che, in realtà, riduce la complessità del reale a un codice binario: danno o non danno, bianco o nero. È il trionfo della semplificazione sulla giustizia.

4. La questione giuridica: chi risponde dell’errore della macchina?

Nel diritto civile classico, la responsabilità segue la volontà o la colpa. Ma quando l’atto lesivo deriva da un algoritmo, la catena causale si spezza. Il produttore del software? L’utilizzatore commerciale? Il cliente che ha accettato termini di servizio incomprensibili? La risposta, oggi, è incerta. E questo vuoto giuridico genera un rischio sistemico: l’irresponsabilità diffusa.

Se l’AI sbaglia e nessuno paga, l’errore non ha costo e, di conseguenza, non ha freno. L’unico a sostenere la conseguenza economica resta il soggetto più debole: il consumatore. È un modello che rovescia la logica dell’art. 2043 c.c. – “qualunque fatto doloso o colposo che cagiona ad altri un danno” – perché qui il danno è “automatizzato”, ma l’elemento soggettivo si dissolve nell’etere digitale.

Serve allora un principio nuovo, che potremmo chiamare “accountability algoritmica”: ogni decisione automatica deve avere un referente umano identificabile, obbligato a rispondere dell’uso dell’AI come se fosse un proprio strumento.

5. Dalla fiducia cieca alla responsabilità consapevole

Il fascino dell’automazione nasce dal desiderio di eliminare l’arbitrio umano. Ma un sistema che rimuove l’uomo dalla catena decisionale finisce per eliminare anche il giudizio, la tolleranza, la ragionevolezza. L’AI non conosce le sfumature: applica regole, non principi. E il diritto, invece, vive proprio di equilibrio tra norma e realtà.

Quando la tecnologia entra nei rapporti giuridici senza mediazione, trasforma il contratto in un algoritmo e la responsabilità in un codice di sistema. È il trionfo dell’efficienza sulla giustizia, dell’automatismo sulla proporzionalità.

Il caso Hertz, in fondo, non è un problema di graffi, ma di confini: dove finisce la macchina e dove inizia l’uomo. Finché la risposta resterà ambigua, la vera imperfezione non sarà sulla carrozzeria delle auto, ma nel sistema che le giudica.

In conclusione, il futuro non sarà deciso dall’intelligenza artificiale, ma da quanto sapremo regolarne l’uso. Non si tratta di temere le macchine, ma di evitare che la logica del profitto automatico cancelli la cultura della responsabilità. L’AI potrà anche non guardare in faccia a nessuno, ma il diritto deve continuare a farlo.


Salvis Juribus – Rivista di informazione giuridica
Direttore responsabile Avv. Giacomo Romano
Listed in ROAD, con patrocinio UNESCO
Copyrights © 2015 - ISSN 2464-9775
Ufficio Redazione: redazione@salvisjuribus.it
Ufficio Risorse Umane: recruitment@salvisjuribus.it
Ufficio Commerciale: info@salvisjuribus.it
***
Metti una stella e seguici anche su Google News

Articoli inerenti

La mistake of law rule: una situazione affidante

La mistake of law rule: una situazione affidante

La “situazione affidante”, espressione coniata dal prof. Maurizio Lupoi, è un particolare atteggiarsi del negozio, che non individua una categoria...

Il caso francese: il contratto di affidamento fiduciario

Il caso francese: il contratto di affidamento fiduciario

Sommario: 1. Premessa – 2. La struttura del contratto fiduciario – 3. I soggetti e le fonti – 4. La causa – 5. Il...

Abuso del potere gestorio, mala gestio, ricorso abusivo al credito

Abuso del potere gestorio, mala gestio, ricorso abusivo al credito

La rappresentanza è un istituto giuridico in forza del quale si verifica una scissione tra parte formale (rappresentante) e parte sostanziale...

Il dominio transitorio

Il dominio transitorio

La proprietà temporanea suscita da sempre un vivace dibattito in ambito dottrinale, soprattutto alla luce del mutato contesto culturale che nel...