Intelligenza artificiale e diritto penale: le disposizioni speciali del Ddl AI

Intelligenza artificiale e diritto penale: le disposizioni speciali del Ddl AI

Sommario: 1. Gli attentati contro di diritti politici – 2. Il deepfake – 3. Le condotte di aggiotaggio – 4. Il copyright – 5. Considerazioni generali

 

di Michele Di Salvo

Il DDL sull’IA conferma la possibilità di individuare elementi di responsabilità personale e colpevole, quindi di rilevanza penale soltanto nell’agire umano.

Il legislatore registra tuttavia anche la peculiare pericolosità derivante dall’utilizzo di tali sistemi e prevede l’introduzione di una nuova circostanza aggravante comune (art. 61 n. 11-decies c.p.), in ragione della maggiore insidiosità di un reato commesso attraverso l’utilizzo dell’IA, e della possibilità che essa diminuisca le possibilità di difesa rispetto alla commissione dei reati.

In questo articolo prendiamo in considerazione gli specifici interventi del disegno di legge riguardanti i singoli reati, e le modifiche che impattano direttamente fattispecie delittuose preesistenti.

1. Gli attentati contro di diritti politici

L’art. 294 c.p., rubricato “Attentati contro i diritti politici del cittadino”, punisce la condotta di chi “con violenza, minaccia o inganno impedisce in tutto o in parte l’esercizio di un diritto politico, ovvero determina taluno a esercitarlo in senso difforme dalla sua volontà”.

Nel DDL AI è stato introdotto un comma che prevede un’aggravante qualora l’inganno sia “posto in essere mediante l’impiego di sistemi di intelligenza artificiale”.

In questo caso il legislatore ritiene che la rilevanza del bene giuridico tutelato richieda in ogni caso una punizione più grave, indipendentemente da caratteristiche di insidiosità intrinseca o estrinseca, dalla capacità di ridurre la difesa, dalla gravità delle conseguenze. Se l’inganno avviene con l’IA in ogni caso l’autore deve incorrere in una pena più severa.

Si tratta di un intervento normativo che cerca di fornire risposta alle tecniche di guerra ibrida, che associano a tradizionali manifestazioni di conflittualità interstatuale anche forme di indebito condizionamento dei processi elettorali delle democrazie rappresentative. 

In questo caso assistiamo ancora una volta alla pretesa di sanzionare penalmente – questa volta con un’aggravante – un’attività senza dubbio meritoria di censura, ma la cui tutela e quindi applicazione risulta particolarmente complessa in considerazione della reale possibilità di perseguimento, visto il carattere internazionale del fenomeno e l’impossibilità di perseguire chi opera nelle fabbriche di chatbot in aree controllate dagli Stati che ne ispirano i comportamenti.

In concreto quindi si tratterebbe di aggravare la pena inflitta al cittadino italiano residente in Italia che utilizzi (anche) strumenti di AI per fatti riconducibili alla fattispecie prevista dall’articolo 294 cp. Nulla incidendo su fatti e atti di concreta profonda interferenza nell’orientamento politico.

2. Il deepfake

Viene introdotto un nuovo delitto, previsto dall’art. 612-quater, rubricato “Illecita diffusione di contenuti generati o alterati con sistemi di intelligenza artificiale”. La condotta punita è commessa da “chiunque cagiona un danno ingiusto ad una persona, cedendo, pubblicando o altrimenti diffondendo, senza il suo consenso, immagini, video o voci falsificati o alterati mediante l’impiego di sistemi di intelligenza artificiale e idonei a indurre in inganno sulla loro genuinità” e “Il delitto è punibile a querela della persona offesa. Si procede tuttavia d’ufficio se il fatto è connesso con altro delitto per il quale si deve procedere d’ufficio ovvero se è commesso nei confronti di persona inca pace, per età o per infermità, o di una pubblica autorità a causa delle funzioni esercitate”.

La norma è posta a tutela dell’onore e della reputazione e cerca di aggiornare la protezione di tali beni giuridici in relazione alla realtà contemporanea, 

Se l’epoca repubblicana ha ispirato per decenni una lettura di onore e reputazione nella visione di eguaglianza e dignità dettati dalla Costituzione, l’era digitale pone l’accento sui profili di tutela della libertà di autodeterminazione della persona. La capacità dell’IA di creare immagini, video o voci falsificate, in modo tanto realistico da potere indurre in inganno sulla non veridicità delle medesime, pone in tal senso una nuova sfida.

La disposizione in primo luogo indica che deve essere cagionato un danno ingiusto, mediante la commissione di alcune condotte tipiche. 

Cruciale, infine, a definire la rilevanza dell’autodeterminazione, è l’elemento dell’assenza di consenso del soggetto passivo, requisito che assurge a componente tipizzante dell’illecito mediante l’invasione della sfera individuale. Legato a tale profilo è anche quello della scelta in ordine alla procedibilità. Essa, infatti, è a querela del soggetto leso, fatta eccezione per quelle circostanze nelle quali la gravità del contesto, la condizione di vulnerabilità del soggetto (incapaci per età o per infermità) ovvero la rilevanza istituzionale (pubblica autorità) rendano imprescindibile la procedibilità d’ufficio, testimoniando in tal guisa una modulazione della tutela commisurata alla natura del bene giuridico esposto a pericolo.

Il legislatore ha scelto di prevedere un reato di danno, descrivendo la causazione di un danno ingiusto alla persona.

I contenuti elaborati debbano risultare “idonei a indurre in inganno sulla loro genuinità”, criterio che postula una valutazione di carattere oggettivo circa la capacità decettiva dell’alterazione prodotta mediante l’impiego di intelligenza artificiale.

Le modalità di estrinsecazione della condotta (cessione, pubblicazione e ogni ulteriore forma di diffusione) dovrebbero, nell’intenzione del legislatore, abbracciare esaustivamente la totalità dello spettro delle dinamiche di circolazione dei contenuti nell’ecosistema digitale contemporaneo, spaziando dalla trasmissione immediata e diretta sino alla pubblicazione su piattaforme ad accesso libero e indiscriminato.

In questo senso il legislatore non dimostra di aver colto l’essenza della tecnica e “del fatto” del DeepFake, ovvero la costruzione di un “falso”, a prescindere dalla conoscenza della persona danneggiata (e quindi in possibilità di agire con querela), il falso inoltre rappresenta “un atto lesivo” di per sé anche se non direttamente e immediatamente “offensivo della reputazione”.

Ricondurre il DeepFake a un semplice atto di danno reputazionale o offensivo lascia impunita la creazione della comunicazione falsa di per sé anche oltre l’eventuale precedente fine di cui al 294 cp, consentendo quindi amplissimi margini di incertezza, semmai astrusamente basati su una interpretazione soggettiva dell’art. 21 della costituzione, o anche di un “diritto creativo”, di critica, di satira, di contestazione politica…

a tale incertezza si aggiunga quanto detto precedentemente a proposito della trasnazionalità, in termini di perseguibilità in concreto.

3. Le condotte di aggiotaggio

Il delitto di aggiotaggio è previsto dall’art. 501 c.p. e punisce la condotta di chiunque “al fine di turbare il mercato interno dei valori o delle merci, pubblica o altrimenti divulga notizie false, esagerate o tendenziose o adopera altri artifizi atti a cagionare un aumento o una diminuzione del prezzo delle merci, ovvero dei valori ammessi nelle liste di borsa o negoziabili nel pubblico mercato”. Oltre al delitto di aggiotaggio comune, vi sono previsioni di aggiotaggio speciali, ed è in relazione a esse che il DDL sull’IA prevede interventi puntuali.

La prima figura è quella di aggiotaggio societario e bancario, cui all’art. 2637 c.c., che punisce la condotta di “chiunque diffonde notizie false, ovvero pone in essere operazioni simulate o altri artifici concretamente idonei a provocare una sensibile alterazione del prezzo di strumenti finanziari non quotati o per i quali non è stata presentata una richiesta di ammissione alle negoziazioni in un mercato regolamentato, ovvero ad incidere in modo significativo sull’affidamento che il pubblico ripone nella stabilità patrimoniale di banche o di gruppi bancari”.

L’aggiotaggio manipolativo o finanziario è figura dettata dall’art. 185 D.Lgs. 24.2.1998, n. 58 (testo unico delle disposizioni in materia di intermediazione finanziaria, c.d. T.U.F.). La norma incriminatrice individua una previsione del tutto analoga a quella di cui all’art. 2637 c.c., in relazione, però, agli strumenti nei mercati regolati (non vi è, infatti, la previsione dell’esclusiva applicazione, prevista all’art. 2637 c.c., agli strumenti non quotati e non in fase di quotazione): è punito “chiunque diffonde notizie false o pone in essere operazioni simulate o altri artifizi concretamente idonei a provocare una sensibile alterazione del prezzo di strumenti finanziari”).

Si tratta, quindi, di reati identici sul piano della tipicità, che prendono le mosse dallo schema del delitto comune di cui all’art. 501 c.p., differenziati solo per tipo di mercato (regolato o meno), in cui a essere punita è la manipolazione mediante alterazione dei prezzi degli strumenti. Le condotte possono essere compiute cumulativamente o alternativamente tra loro, e consistono in alcuni comportamenti descritti dalle due norme incriminatrici: la diffusione di false notizie, la messa in atto di operazioni simulate, di utilizzo di qualsiasi altro artificio che sia concretamente idoneo a incidere sul prezzo degli strumenti, oppure sull’affidamento del pubblico nella stabilità del sistema bancario.

In tale quadro, sono introdotte sia all’art. 2637 c.c. sia all’art. 185 T.U.F. – non invece all’art. 501 c.p. – due circostanze aggravanti, “se il fatto è commesso mediante l’impiego di sistemi di intelligenza artificiale”.

Questa distinzione potrebbe suggerire una volontà di concentrare le nuove misure repressive sui reati a sfondo economico e finanziario, dove l’IA può avere un impatto più immediato e destabilizzante. Va, peraltro, ricordato che nel disegno di legge licenziato dal governo, in cui maggiori erano gli interventi previsti in ambito penalistico, la previsione concerneva anche il delitto comune.

4. Il copyright

Viene inserita nell’art. 171 della L. 22 aprile 1941, n. 633 (legge sul diritto d’autore) una nuova lettera a-ter), che prevede la punizione della condotta di chi riproduce o estrae testo o dati da opere o altri materiali disponibili in rete o in banche di dati in violazione degli articoli 70-ter e 70-quater, anche attraverso sistemi di intelligenza artificiale.

Si tratta della previsione espressa della punibilità delle condotte di text data mining (TDM) compiute in modo abusivo (un’attività di estrazione di testo e dati con tecnica di analisi automatizzata di grandi volumi di dati per estrarre informazioni).

Il legislatore nel 2021 ha previsto alcune norme di regolazione di tale attività, proprio con l’inserimento degli articoli 70-ter (disciplina in relazione all’attività compiuta per scopi di ricerca scientifica da parte di organismi a ciò preposti e istituti culturali) e 70-quater(disciplina relativa agli altri scopi, quindi segnatamente a quelli commerciali).

La condizione posta per l’attività è in ogni caso che l’accesso alle opere sia legittimo. In presenza di tali presupposti, però, le due disposizioni prevedono differenti discipline del c.d. opt-out, cioè della facoltà per i titolari dei diritti di riservarsi espressamente l’utilizzo delle opere, impedendone l’estrazione. Infatti, se tale facoltà è prevista in relazione agli scopi commerciali di cui all’art. 70-quater, così non è per le finalità di ricerca scientifica in relazione alle attività compiute dai relativi organismi e dagli istituti culturali.

Il DDL sull’IA prevede l’introduzione, all’art. 171 della legge sul diritto d’autore, della norma di cui alla lettera a-ter), così da individuare e punire la condotta di reato del TDM abusivo o in ogni caso in violazione della disciplina prevista dagli art. 70-ter e 70-quater, mediante utilizzo di sistemi di IA.

I sistemi di IA non possono, quindi, prelevare indiscriminatamente dati protetti da copyright per il loro addestramento o per generare nuovi contenuti, senza prima aver verificato la legittimità dell’accesso, nel rispetto delle eventuali scelte di opt-out espresse dai titolari dei diritti.

Quanto alla verifica della legittimità dell’accesso ai dati o delle opzioni di opt-out espresse dai titolari dei diritti, essa deve, quindi, essere progettata e implementata a monte da parte degli sviluppatori e degli operatori umani che gestiscono l’IA. Il sistema dovrà, pertanto, essere configurato, affinché esso acceda solo a fonti con licenze che consentono il TDM, rispettando i termini e le condizioni d’uso dei siti web.

È quanto accade normalmente, prevedendo per esempio la capacità di lettura automatizzata, da parte del sistema, di dati quali le informazioni contenute nei file robots.txt, le clausole esplicite di no-TDM, i metadati specifici inseriti nelle opere digitali, etc. Nel dibattito di settore si discute della creazione di registri standardizzati, che per mezzo delle API, cioè le application programming interface (le interfaccia di programmazione di un’applicazione), cioè quel set di definizioni e protocolli che permette a due applicazioni software di comunicare tra loro, così da consentire una migliore consultazione automatizzata delle preferenze dei titolari del diritto. Se in futuro esistessero dei registri centralizzati dove i titolari dei diritti potessero registrare le volontà di opt-out, in essi potrebbero essere impiegate delle API al riguardo, e il software che gestisce il sistema di IA potrebbe interrogare in modo automatizzato tali API per verificare, prima di procedere con il TDM, se un determinato contenuto sia stato contrassegnato o meno con un opt-out.

5. Considerazioni generali

Da una lettura trasversale appare evidente che ancora una volta il bene tutelato da interventi di tipo penalistico attengono prevalentemente e sono incentrati maggiormente sulla tutela della proprietà.

Anche l’attività tesa a minare i “diritti politici” è intesa come “mirante a danneggiare il patrimonio di consenso politico” piuttosto che la libertà della persona ad una informazione “pulita”, capace di produrre un reale sostrato di informazione consapevole, alla base di una determinazione politica chiara e libera.

Vedere tutto alla stregua della proprietà – come ad esempio nel caso della lesione reputazionale da deepfake – elude la centralità del tema della manipolazione del contenuto a mezzo di AI.

In realtà il danno è alla persona, alla sua libertà di essere informata in maniera libera, vera e senza manipolazioni (deepfake, diritti politici), di poter conoscere e investire consapevolmente (aggiotaggio) e di poter accedere ad un contenuto con un chiaro diritto di paternità e di attribuzione, sia lato creatore sia lato utente (copyright).

Se vediamo questi diritti in questa prospettiva ad orientamento umano e personale, ci rendiamo conto che il DeepFake non è semplicemente una azione che danneggia una reputazione, ma che tende a influenzare il destinatario del messaggio in maniera fuorviante, i qualsiasi senso, e in questo caso la dimensione del danno è ben più estesa, e per molti aspetti più grave.

Analogo ragionamento può essere fatto su tutte le altre fattispecie.

In questa ottica, che diventa dinamica, ancora una volta l’AI ci impone di riorientare complessivamente l’approccio in senso “umanamente orientato”, a sganciarci da una logica di tutela diretta del patrimonio per ricostruire sia la dimensione del danno sia di cosa si debba considerare patrimonio, e ripensare la dimensione delle tutele cui è chiamato il diritto.


Salvis Juribus – Rivista di informazione giuridica
Direttore responsabile Avv. Giacomo Romano
Listed in ROAD, con patrocinio UNESCO
Copyrights © 2015 - ISSN 2464-9775
Ufficio Redazione: redazione@salvisjuribus.it
Ufficio Risorse Umane: recruitment@salvisjuribus.it
Ufficio Commerciale: info@salvisjuribus.it
***
Metti una stella e seguici anche su Google News

Articoli inerenti

Il bivio della giustizia: rito abbreviato e patteggiamento dopo la Riforma Cartabia

Il bivio della giustizia: rito abbreviato e patteggiamento dopo la Riforma Cartabia

La Riforma Cartabia, con il suo impatto profondo sul sistema penale italiano, ha ridisegnato il panorama processuale, ponendo l’imputato di...

Reati a evento differito e reati abituali: tempo di commissione del reato e successione di leggi penali

Reati a evento differito e reati abituali: tempo di commissione del reato e successione di leggi penali

Il problema del tempus commissi delicti è delicato e complesso. All’art. 2 co.1 del c.p. il legislatore ha espressamente sancito che al reo si...

L’abrogazione dell’abuso d’ufficio: una scelta di politica criminale tra razionalizzazione e vuoti di tutela

L’abrogazione dell’abuso d’ufficio: una scelta di politica criminale tra razionalizzazione e vuoti di tutela

Con la legge 9 agosto 2024, n. 114, il legislatore italiano ha definitivamente abrogato l’art. 323 del codice penale, norma che incriminava la...

L’udienza preliminare: analisi degli istituti processuali e critica delle prassi applicative illegittime

L’udienza preliminare: analisi degli istituti processuali e critica delle prassi applicative illegittime

1. L’udienza preliminare: la naturale funzione di filtro predibattimentale L’udienza preliminare rappresenta una sorta di terra di mezzo tra la...