
Deepfake e tutela della persona
di Michele Di Salvo
Sommario: Premessa – 1. Una tipizzazione autonoma del reato di deepfake: la proposta Zanella – 2. La proposta Carfagna e l’estensione della tutela civilistica – 3. Un commento conclusivo
Premessa
Il fenomeno dei deepfake rappresenta una manifestazione diffusa di uso distorto delle tecnologie di intelligenza artificiale generativa.
Nato come sperimentazione tecnica in ambito audiovisivo ha rapidamente trovato impieghi illeciti e lesivi, soprattutto nella sfera della dignità e della reputazione individuale, oltre che come strumento di frode e di diffusione di fakenews.
La possibilità di manipolare immagini e video con grande realismo (finanche il movimento della mimica facciale riproduce il movimento delle false affermazioni) solleva questioni giuridiche di primaria importanza: dalla tutela della privacy alla protezione dell’onore, fino alla prevenzione di nuove forme di violenza digitale.
Pone altresì un problema di tutela “dall’altra parte” del monitor, ovvero di coloro che sono spettatori di un messaggio di deepfake, sia sul fronte dell’affidamento rispetto all’informazione ricevuta sia sotto il profilo della costituzione di una opinione libera e consapevole a fondamento delle proprie decisioni, siano esse politiche, di opinione e di scelta economica.
La cronaca recente evidenzia l’urgenza di un intervento normativo capace di colmare lacune regolatorie e offrire strumenti concreti di difesa. In questo contesto, le proposte di legge recentemente annunciate si inseriscono in un dibattito che mette al centro il bilanciamento tra libertà tecnologica, responsabilità penale e salvaguardia dei diritti fondamentali della persona.
Tutte le proposte tuttavia vanno nella direzione univoca di tutela della “persona la cui immagine viene manipolata” e nel senso di tutela della proprietà dell’immagine stessa, anche in senso di decoro e reputazione. Poca attenzione è invece dedicata al soggetto fruitore – e quindi vittima – del messaggio manipolato da deepfake.
Se da un lato infatti è indubbio che venga lesa l’immagine della persona manipolata, il vero fine della manipolazione è colpire lo spettatore inconsapevole, spesso fragile cognitivamente, che cade in truffe e in un’informazione fuorviante.
Il caso di Arianna, la giovane diciannovenne di Foggia finita al centro di una vicenda di deepfake porn, rappresenta una ferita aperta per lei e per l’intera comunità. La sua storia, che nasce da una semplice fotografia personale sottratta e manipolata digitalmente fino a trasformarla in un’immagine a contenuto sessuale, racconta quanto la tecnologia, se usata senza scrupoli, possa diventare uno strumento di violenza.
Non si tratta soltanto di un abuso virtuale: le immagini contraffatte, accompagnate da insulti e dati personali, hanno invaso le strade della sua città, stampate su volantini e manifesti, ponendo la ragazza ad un’esposizione violentemente forzata che travalica il web e si riversa sulla vita quotidiana, sul rapporto con i vicini e gli amici, sulla possibilità stessa di sentirsi al sicuro.
Sul piano strettamente normativo, l’ordinamento italiano conosce già fattispecie come la diffamazione, le molestie e la diffusione illecita di immagini o video sessualmente espliciti senza consenso (revenge porn).
Tuttavia, nella vicenda di Arianna non si tratta di materiale autentico condiviso in precedenza dalla vittima, ma di un falso digitale capace di ingannare e, soprattutto, di produrre le stesse conseguenze lesive. Qui il problema non è soltanto “cosa” viene diffuso, ma “come” viene costruito quel contenuto, sfruttando l’identità visiva di una persona senza alcun suo consenso.
La violenza del deep fake porn porta con sé l’angoscia di sentirsi osservati, etichettati, giudicati, e mette a repentaglio la dignità e la sicurezza fisica della vittima. L’immagine falsa creata in digitale, crea a sua volta una falsa immagine e una falsa rappresentazione della persona colpita e resa protagonista del deep fake.
È una forma di aggressione che si amplifica esponenzialmente perché a ogni condivisione l’offesa rinasce, trovando nuova vita e nuovi spettatori. In questo senso, l’attuale cornice normativa mostra limiti evidenti: la repressione penale è necessaria, ma non basta.
La storia di Arianna, dunque, non è soltanto un dramma personale, ma un campanello d’allarme: ci ricorda che la tecnologia, senza un adeguato presidio etico e giuridico, rischia di trasformarsi in un’arma di umiliazione pubblica e violenza invisibile. E che la giustizia, se vuole davvero proteggere le vittime, deve saper correre alla stessa velocità delle nuove forme di abuso digitale.
1. Una tipizzazione autonoma del reato di deepfake: la proposta Zanella
La proposta di legge Zanella ed altri (atto n. 2579) mira a introdurre l’art. 96-bis nella legge 22 aprile 1941, n. 633, e l’art. 612-quater nel codice penale, con conseguente modifica dell’art. 275 c.p.p., e si colloca nel solco delle più recenti tendenze di politica criminale volte a predisporre strumenti specifici per la repressione dei fenomeni di violenza digitale.
L’inserimento dell’art. 612-quater c.p. appare significativo perché, per la prima volta, il legislatore individua nel ricorso a sistemi di intelligenza artificiale un elemento qualificante della fattispecie incriminatrice: la condotta illecita non è più semplicemente la diffusione non autorizzata di immagini o video sessualmente espliciti – già contemplata dall’art. 612-ter c.p. in materia di revenge porn – ma la creazione e circolazione di contenuti manipolati o generati ex novo attraverso tecniche di deep learning, che assumono rilievo penale in ragione della loro idoneità a ledere la dignità, l’onore e la reputazione della persona offesa. In tal modo, si evita il ricorso a costruzioni interpretative forzate, che oggi portano ad applicare al deepfake porn norme pensate per fattispecie diverse (diffamazione, trattamento illecito di dati personali, sostituzione di persona), e si riconosce autonomia tipica a un fenomeno che ha caratteristiche sue proprie, sia sul piano tecnico che sul piano dell’offesa al bene giuridico.
Parallelamente, l’art. 96-bis LDA si innesta nella tradizione del diritto d’autore, ma la estende, innalzando a rango normativo il principio secondo cui l’immagine e la voce di una persona reale non possono essere utilizzate o alterate da sistemi di intelligenza artificiale senza il consenso dell’interessato, anche in assenza di un intento commerciale.
La proposta legislativa quindi trasversalmente amplia l’area della tutela dei diritti della personalità, inserendola in un quadro che si pone in relazione non solo con la normativa interna, ma anche con le garanzie europee in materia di protezione dei dati personali (si pensi al art. 5 CEDU, in particolare agli artt. 9 e 17 in tema di dati biometrici e diritto all’oblio) e con i principi delineati dall’AI Act. Le modifiche all’art. 275 c.p.p., infine, sono funzionali a garantire l’effettività dell’azione repressiva, poiché incidono sul sistema delle misure cautelari personali, ampliando i casi in cui può giustificarsi la custodia cautelare in carcere per il pericolo di reiterazione del reato, in ragione della facilità con cui i contenuti illeciti possono essere replicati e diffusi.
In prospettiva sistematica, la proposta Zanella costituisce un passo importante verso la tipizzazione di nuove forme di aggressione digitale, ma non è esente da criticità: occorrerà definire con precisione l’ambito applicativo della norma penale, distinguendo i casi di utilizzo offensivo da quelli in cui prevalgono esigenze di satira, parodia o espressione artistica, per evitare conflitti con la libertà di manifestazione del pensiero tutelata dall’art. 21 Cost. e dall’art. 10 CEDU.
2. La proposta Carfagna e l’estensione della tutela civilistica
La proposta di legge Carfagna ed altri (atto n. 2580) si colloca nello stesso solco di attenzione verso gli abusi derivanti dall’uso distorto dell’intelligenza artificiale, ma si distingue dalla precedente iniziativa parlamentare per il diverso baricentro normativo: mira infatti ad inserire un nuovo articolo 171-ter.1 nella legge sul diritto d’autore, ponendo quindi l’accento non tanto sulla tipizzazione penale autonoma, quanto sulla tutela civilistica e amministrativa dei diritti della personalità connessi all’identità visiva e vocale.
L’intento dichiarato è quello di rafforzare il presidio normativo contro la diffusione non autorizzata di immagini o voci di persone reali, generate o manipolate dall’IA, inquadrandole come violazioni assimilabili alle condotte già sanzionate dalla disciplina sul diritto d’autore, e dunque soggette non solo a responsabilità individuale, ma anche a obblighi di prevenzione e rimozione da parte degli intermediari digitali.
Si tratta di una scelta che enfatizza la dimensione patrimoniale e reputazionale del danno, ampliando lo spettro delle tutele già previste dagli artt. 96 e 97 LDA in materia di immagine e rafforzando il potere dell’interessato di opporsi alla circolazione di contenuti falsificati che ledono la sua identità.
L’attenzione riservata ai profili di responsabilità delle piattaforme costituisce un passaggio cruciale: la proposta, infatti, si muove verso l’introduzione di obblighi specifici per i gestori di servizi online di attivarsi tempestivamente per rimuovere i contenuti segnalati come deepfake non autorizzati, con l’effetto di ridurre l’asimmetria di potere tra vittima e colosso digitale.
Sul piano sistemico, ciò comporterebbe una significativa integrazione tra la normativa nazionale e gli strumenti sovranazionali, in particolare il Digital Services Act, rafforzando l’efficacia del diritto all’oblio e del principio di accountability delle piattaforme.
Resta anche in questo caso centrale la questione del bilanciamento con la libertà di espressione: la norma dovrà definire chiaramente i confini tra deepfake lesivi e utilizzi creativi, artistici o giornalistici, così da evitare che la repressione delle prime condotte si traduca in una limitazione indebita delle seconde.
Nel complesso, la proposta Carfagna si presenta come un tassello complementare rispetto ad altre iniziative legislative, privilegiando la dimensione preventiva e regolatoria, e mostrando l’intento di armonizzare la disciplina interna con le sfide poste dalla rete e dalle tecnologie emergenti.
3. Un commento conclusivo
Le due proposte di legge, quella a firma Zanella e quella a firma Carfagna, testimoniano come il legislatore stia prendendo coscienza della portata dei rischi legati all’uso distorto dell’intelligenza artificiale e, in particolare, dei deepfake a contenuto sessuale o diffamatorio.
Sebbene muovano da approcci diversi – più marcatamente penale la prima, più incentrata sulla tutela civilistica e regolatoria la seconda – entrambe condividono l’obiettivo di colmare un vuoto normativo che oggi rende difficile offrire risposte tempestive ed efficaci alle vittime.
In un’ottica di ottimizzazione dei processi legislativi e per avere anche un quadro effettivamente organico, armonico e bilanciato, potrebbe essere interessante immaginare una fusione tra le due proposte, privilegiando per una volta la dimensione dell’efficienza legale al personalismo parlamentare.
Ciò che emerge è la necessità di costruire un sistema integrato, capace di combinare strumenti repressivi severi per le condotte più gravi con meccanismi preventivi e di protezione immediata, in grado di garantire la rimozione rapida dei contenuti illeciti e di responsabilizzare le piattaforme che li ospitano.
Le prospettive, tuttavia, non sono prive di sfide: occorrerà evitare sovrapposizioni e conflitti tra norme, chiarire i confini applicativi per non comprimere la libertà di espressione, e al contempo assicurare coerenza con il diritto europeo, in particolare con il Digital Services Act, il GDPR e l’AI Act.
Le idee che emergono da questi testi mostrano una crescente consapevolezza della complessità del fenomeno: il deepfake porn non è solo un problema di violazione della privacy o di reputazione, ma una forma di aggressione che intacca l’autodeterminazione e l’identità stessa delle persone coinvolte.
Il nodo centrale sarà quello di coniugare l’innovazione normativa con un investimento culturale ed educativo: senza una diffusa coscienza sociale della gravità di queste condotte, la sola minaccia penale o la sola sanzione economica rischiano di rimanere strumenti parziali.
Una via però sul cui solco inserirsi è quella tracciata sul diritto d’autore tra Facebook e Youtube per i casi di violazione del copyright: al di là della segnalazione degli utenti infatti appare molto semplice per le piattaforme stesse riconoscere e individuare i contenuti condivisi (almeno sui socialnetwork) che sono palesemente generati da AI.
Basterebbe rendere “per loro interessante” oltre che necessario rimuovere i contenuti deepfake.
Uscendo infatti dalla dinamica “porn” del deepfake, la vera anomalia risiede in contenuti chiaramente fraudolenti per promuovere finte piattaforme di investimento, piuttosto che contenuti deepfake di chiaro orientamento politico. Tuttavia coloro che pubblicano questi contenuti hanno anche un ampio interesse alla loro diffusione spendendo parecchio in inserzioni e a pagamento con l’intento di raggiungere un vasto pubblico.
Ecco che rendere antieconomico per le piattaforme dare spazio a queste forme di frode può essere una via utile a ridimensionare il fenomeno, ben oltre le vie penali e risarcitorie, che sono chiamate ad affrontare i ben noti problemi della transnazionalità e della localizzazione giuridica del soggetto ultimo, spesso difficilmente identificabile.
Salvis Juribus – Rivista di informazione giuridica
Direttore responsabile Avv. Giacomo Romano
Listed in ROAD, con patrocinio UNESCO
Copyrights © 2015 - ISSN 2464-9775
Ufficio Redazione: redazione@salvisjuribus.it
Ufficio Risorse Umane: recruitment@salvisjuribus.it
Ufficio Commerciale: info@salvisjuribus.it
***
Metti una stella e seguici anche su Google News







