L’Intelligenza Artificiale e la nuova frontiera della pedopornografia: profili normativi, criticità e prospettive di contrasto

L’Intelligenza Artificiale e la nuova frontiera della pedopornografia: profili normativi, criticità e prospettive di contrasto

di avv. Federico Cicillini

Abstract. L’evoluzione delle tecnologie digitali, in particolare delle applicazioni di intelligenza artificiale generativa, ha inaugurato scenari inediti e fortemente preoccupanti in materia di reati sessuali contro i minori. La possibilità di creare, modificare o simulare contenuti a sfondo pedopornografico — anche in assenza di vittime reali — solleva complesse questioni di diritto penale sostanziale e processuale. Il presente contributo si propone di analizzare i profili giuridici più rilevanti alla luce della normativa vigente e delle più recenti proposte europee, evidenziando i limiti dell’attuale apparato normativo e le possibili direttrici evolutive.

Sommario: 1. Introduzione – 2. Il fenomeno della pedopornografia sintetica: caratteristiche tecniche e problematiche giuridiche – 3. Inquadramento normativo: tra art. 600-ter e art. 600-quater.1 c.p. – 4. La parte lesa nei contenuti generati da IA: un approfondimento teorico-giuridico – 5. L’IA generativa e la creazione di “deepfake pedopornografici” – 6. Difficoltà probatorie e responsabilità penale – 7. Strumenti tecnologici e metodologie investigative contro la pedopornografia generata da IA – 8. Il quadro europeo e le proposte di riforma – 9. Conclusioni

 

1. Introduzione

Negli ultimi anni, l’intelligenza artificiale (IA) ha compiuto progressi straordinari nella generazione automatica di contenuti multimediali, attraverso tecnologie come il deep learning, le reti neurali generative avversarie (GANs), la sintesi vocale avanzata e i sistemi di image-to-text e text-to-image. Questi strumenti, inizialmente sviluppati con finalità lecite nei settori dell’intrattenimento, della ricerca scientifica, della pubblicità e della medicina, sono oggi purtroppo anche impiegati in contesti criminali, tra cui la produzione e diffusione di materiale pedopornografico.

L’aspetto di maggiore allarme è rappresentato dalla cosiddetta “pedopornografia sintetica” o “virtuale”, ovvero contenuti a carattere sessuale esplicito che ritraggono minori verosimili, ma in realtà inesistenti, creati ex novo da sistemi generativi.

Tale fenomeno travalica le categorie tradizionali del diritto penale, che presuppongono un soggetto passivo reale del reato, e impone un urgente aggiornamento dei paradigmi normativi.

La presente trattazione si propone di indagare le principali criticità dogmatiche e applicative derivanti da questo fenomeno, con un focus sulle lacune legislative esistenti, sulle difficoltà probatorie connesse ai contenuti generati da IA e sulle tendenze evolutive della giurisprudenza e del legislatore europeo, al fine di fornire un contributo costruttivo e aggiornato alla riflessione penalistica in materia.

2. Il fenomeno della pedopornografia sintetica: caratteristiche tecniche e problematiche giuridiche

L’ultima frontiera della produzione di materiale pedopornografico è rappresentata dall’uso distorto di tecnologie IA quali il deepfake (alterazione di video preesistenti tramite reti neurali), la image synthesis (generazione ex novo di immagini fittizie tramite GANs) e il voice cloning (riproduzione artificiale di voci umane, anche minorili). Originariamente concepite con finalità legittime in ambito creativo, pubblicitario, sanitario o didattico, queste applicazioni sono oggi oggetto di preoccupante riconversione a fini criminosi. In particolare, l’impiego dell’IA consente la creazione di contenuti sessualmente espliciti che rappresentano soggetti con sembianze minorili, senza che vi sia mai stata l’effettiva esistenza di un bambino coinvolto nella produzione.

Tale materiale, pur simulando situazioni di abuso su minori, viene generato in modo del tutto autonomo dai sistemi artificiali, i quali sfruttano dataset anonimi o interamente sintetici. Di conseguenza, viene meno l’elemento della vittima concreta che tradizionalmente fonda la tipicità del reato di cui all’art. 600-ter c.p., generando un corto circuito giuridico tra offensività, lesione del bene giuridico tutelato (l’integrità psico-fisica del minore) e principio di legalità.

Questa anomalia solleva due questioni centrali:

In primo luogo, occorre interrogarsi se sia configurabile un reato in assenza di un soggetto passivo reale.

Ciò impone un ripensamento del concetto di “bene giuridico protetto” nei reati contro la libertà e l’indennità sessuale dei minori, che potrebbe transitare da una tutela individuale a una tutela di tipo collettivo o simbolico (es. protezione dell’immagine del minore come categoria astratta o della sensibilità pubblica rispetto all’abuso).

In secondo luogo, si rende necessaria una ridefinizione della condotta penalmente rilevante, non più fondata sulla produzione materiale mediante sfruttamento del minore, bensì sull’intenzionalità del soggetto agente (elemento soggettivo) e sulla pericolosità sociale del contenuto generato, valutata in chiave potenziale e preventiva.

L’apparente assenza di lesione concreta non esclude, infatti, la possibilità di ravvisare un’offesa in senso funzionale, intesa come pericolo per la dignità collettiva dei minori, per la diffusione di stereotipi sessualizzanti e per l’amplificazione di pratiche devianti attraverso canali digitali. Tali considerazioni stanno orientando parte della dottrina e delle Corti europee verso l’ampliamento della nozione di materiale pedopornografico anche ai contenuti “non reali ma realistici”, purché idonei a soddisfare pulsioni pedofile e a promuovere, indirettamente, forme di abuso reale.

3. Inquadramento normativo: tra art. 600-ter e art. 600-quater.1 c.p.

Nel diritto positivo italiano, il punto di partenza è rappresentato dall’art. 600-ter c.p., introdotto dalla L. 269/1998, il quale punisce chi realizza, offre, cede, diffonde, distribuisce o comunque divulga materiale pornografico realizzato mediante lo sfruttamento sessuale di minori, nonché chi lo detiene consapevolmente. Tale norma presuppone, nella sua struttura tradizionale, l’esistenza di un minore reale coinvolto nella produzione del materiale stesso.

Un’importante estensione della tutela è stata operata con l’art. 600-quater.1 c.p., introdotto dalla L. 38/2006 in attuazione della Convenzione di Lanzarote (2007) e della Direttiva 2011/93/UE del Parlamento Europeo. Tale disposizione prevede la punibilità della cosiddetta “pedopornografia virtuale”, definita come la rappresentazione, realizzata con tecniche di elaborazione grafica, di minori coinvolti in attività sessuali, anche se i soggetti raffigurati non corrispondano a persone reali.

L’intento del legislatore è stato quello di colmare il vuoto normativo derivante dall’utilizzo di immagini simulate, evitando che contenuti di forte impatto lesivo e pericolosità sociale potessero restare impuniti per assenza di un soggetto passivo reale. Tuttavia, la norma presenta limiti di chiarezza e applicabilità, specialmente in relazione alle più recenti tecniche di generazione di immagini tramite intelligenza artificiale.

Una questione interpretativa centrale concerne infatti la qualificabilità penale delle immagini prodotte tramite prompt testuali, morphing facciale, deep learning o altri strumenti di IA generativa. Se da un lato la lettera della norma sembra riferirsi a rappresentazioni grafiche statiche o animate, dall’altro le nuove tecnologie pongono problemi inediti quanto alla natura del materiale e all’elemento soggettivo del reato. Si tratta, in particolare, di comprendere se e quando tali contenuti superino la soglia della mera potenzialità offensiva, per divenire concretamente idonei ad integrare la fattispecie incriminatrice.

La giurisprudenza di merito e le prassi investigative sono tuttora in fase di assestamento, ma emergono orientamenti favorevoli a un’interpretazione estensiva dell’art. 600-quater.1, al fine di ricomprendere ogni contenuto “plausibilmente” riferibile a minori e suscettibile di indurre o rafforzare comportamenti devianti, a prescindere dalla loro effettiva verosimiglianza o dalla consapevolezza del fruitore circa la natura artificiale dell’immagine.

4. La parte lesa nei contenuti generati da IA: un approfondimento teorico-giuridico

Un nodo cruciale nella discussione sulla rilevanza penale della pedopornografia sintetica è la questione dell’esistenza o meno di una parte lesa. Se i minori rappresentati attraverso l’IA non esistono nella realtà, è legittimo chiedersi quale sia il bene giuridico leso e se vi sia spazio per la punibilità in assenza di una vittima concreta.

Nel reato classico di pornografia minorile, la parte offesa è inequivocabilmente il minore realmente coinvolto, la cui integrità fisica e psichica viene direttamente compromessa. Nel caso della pedopornografia sintetica, tuttavia, il riferimento a una persona concreta viene meno, rendendo necessaria una reinterpretazione del concetto di lesione penalmente rilevante.

Due sono le principali teorie elaborate in dottrina:

– La teoria personalistica allargata: secondo tale impostazione, anche in assenza di un minore reale, la produzione di immagini sessualmente esplicite che ritraggono minori artificiali costituisce comunque una lesione alla dignità dell’infanzia come valore costituzionalmente tutelato.

Si ritiene che l’atto in sé sia idoneo a rafforzare visioni distorte e sessualizzanti del minore, favorendo la diffusione di una cultura deviata che, a lungo termine, può tradursi in pratiche abusive. Il bene giuridico protetto non è quindi il singolo individuo, ma una categoria vulnerabile nella sua rappresentazione collettiva.

– La teoria dell’ordine pubblico sessuale: altri autori ritengono che ciò che viene leso dalla pedopornografia virtuale sia l’ordine pubblico sessuale, inteso come l’insieme delle regole morali e sociali che garantiscono la sicurezza collettiva, la prevenzione della devianza sessuale e la repressione dei comportamenti pedofilici.

Secondo questa visione, il reato ha una dimensione eminentemente preventiva: colpire la circolazione di tali contenuti artificiali servirebbe a disinnescare la diffusione di appetiti illeciti e a mantenere integra la soglia di tollerabilità sociale.

Sotto il profilo soggettivo, la giurisprudenza prevalente richiede il dolo generico: è sufficiente che l’agente abbia la volontà di produrre, detenere o diffondere immagini che rappresentino minori in atti sessuali, indipendentemente dal fatto che i soggetti raffigurati esistano realmente o meno. Non è necessaria la consapevolezza della falsità dell’immagine, essendo sufficiente l’intento di raffigurare sessualmente un soggetto con caratteristiche esteriori minorili.

Quanto all’elemento oggettivo, emerge una difficoltà tecnico-giuridica nel definire cosa debba intendersi per “minore” nell’ambito di una rappresentazione artificiale. I criteri di identificazione sono spesso incerti: si parla di tratti somatici, proporzioni corporee, contesto scenico, ambientazione e stile grafico, ma non esiste ad oggi un criterio univoco e codificato. Ciò comporta un rischio di soggettività nell’accertamento giudiziale, con possibili conseguenze in termini di legittimità costituzionale della norma per indeterminatezza.

In conclusione, la parte lesa nella pedopornografia generata da IA non è una persona fisica, bensì un bene giuridico diffuso: la dignità dell’infanzia, la sicurezza morale collettiva, la prevenzione criminologica. Resta, tuttavia, essenziale una riflessione sistematica per garantire il bilanciamento tra tutela dei diritti fondamentali e principio di legalità, evitando derive punitive fondate su pericolosità astratte o simboliche.

5. L’IA generativa e la creazione di “deepfake pedopornografici”

L’ampia diffusione e l’accessibilità di strumenti di intelligenza artificiale generativa, come Stable Diffusion, modelli di sintesi vocale (voice synthesis) e altre piattaforme open source, hanno radicalmente trasformato il panorama della produzione di contenuti multimediali.

In particolare, la possibilità di creare in tempi brevissimi immagini, video o audio che rappresentano soggetti con sembianze minorili coinvolti in attività sessualmente esplicite apre interrogativi giuridici di non poco rilievo, specialmente in relazione alla qualificazione penale di tali materiali ai sensi dell’art. 600-quater.1 c.p.

Dal punto di vista normativo, si pone la questione cruciale se questi contenuti, generati artificialmente e privi di un corrispettivo soggetto passivo reale, possano essere considerati “materiale pedopornografico” sanzionato dalla legge. L’interpretazione prevalente in dottrina e giurisprudenza di merito tende a confermare la punibilità qualora si verifichino cumulativamente le seguenti condizioni:

– Grado di realismo e plausibilità del minore rappresentato: l’immagine o il video deve possedere un livello di verosimiglianza tale da poter essere ragionevolmente percepito come rappresentazione di un minore concreto, anche se frutto di manipolazione digitale o generazione algoritmica.

Il concetto di “minore plausibile” è pertanto centrale per evitare una penalizzazione arbitraria di contenuti eccessivamente astratti o fantasiosi.

– Intento lesivo e disvalore penale: è imprescindibile la presenza di una volontà dell’agente volta a ledere la dignità, l’integrità psico-fisica o lo sviluppo morale del minore inteso in senso esteso, includendo la tutela dell’infanzia come categoria sociale vulnerabile.

L’elemento soggettivo comprende dunque il dolo generico di produzione o diffusione di immagini sessualmente esplicite riguardanti minori, anche sintetici.

– Natura del contenuto: il materiale deve presentare carattere sessualmente esplicito e non essere giustificato da finalità legittime quali ricerca scientifica, espressione artistica o scopi educativi debitamente comprovati.

Questa distinzione è fondamentale per circoscrivere l’ambito di applicazione penale ed evitare un’eccessiva compressione della libertà di espressione e di informazione.

Tuttavia, permangono importanti zone di incertezza interpretativa, che generano ambiti grigi difficili da inquadrare con certezza giuridica:

– Fisionomie “morfologicamente minorili” ma astratte: l’utilizzo di figure o avatar digitali che mostrano caratteristiche somatiche generiche tipiche dell’infanzia, senza un volto o una fisionomia chiaramente riconducibili a un minore reale. La difficoltà consiste nel definire se tali rappresentazioni astratte possano integrare una lesione giuridicamente rilevante.

–     Modifiche di volti di adulti con tratti infantili: la manipolazione digitale che altera l’aspetto di soggetti maggiorenni per conferire loro sembianze infantili solleva dubbi circa l’applicabilità dell’art. 600-quater.1 c.p., in quanto la figura rappresentata non è un minore reale, né totalmente fittizia, ma un ibrido artificiale.

– Uso illecito di immagini di minori pubblicate su piattaforme social: la sovrapposizione di volti riconoscibili di minori, estratti da social network come Instagram, su corpi digitali in pose sessuali esplicite pone questioni complesse di violazione della privacy, diritto all’immagine e danno alla persona, oltre alla configurabilità del reato di pedopornografia virtuale.

Questi profili mettono in luce la necessità di sviluppare criteri oggettivi e linee guida interpretative condivise, sia a livello nazionale sia europeo, per garantire un bilanciamento efficace tra repressione di condotte illecite e tutela dei diritti fondamentali. La rapida evoluzione tecnologica rende infatti urgente un intervento legislativo e giurisprudenziale capace di adattare il quadro normativo alle peculiarità dei contenuti generati dall’IA, preservando al contempo certezze e principi di diritto penale.

6. Difficoltà probatorie e responsabilità penale

La natura immateriale, fluida e altamente manipolabile dei contenuti prodotti mediante intelligenza artificiale genera una serie di rilevanti difficoltà sul piano probatorio e processuale, che mettono a dura prova l’efficacia degli strumenti investigativi e giudiziari tradizionali. In particolare, emergono ostacoli concreti nella ricostruzione della responsabilità penale, dovuti a vari fattori:

Individuazione dell’autore materiale: a differenza dei reati con modalità tradizionali, dove è possibile risalire con ragionevole certezza all’agente materiale, nei casi di contenuti IA il processo di creazione può coinvolgere sistemi automatizzati, intermediari, piattaforme terze e soggetti che agiscono con modalità anonime o pseudonime. Ciò rende complesso attribuire la responsabilità a un singolo individuo o a un gruppo, soprattutto in assenza di prove dirette o di una traccia digitale univoca.

– Valutazione del grado di consapevolezza e volontarietà: stabilire se il soggetto abbia agito con dolo specifico, ovvero con la consapevolezza della natura illecita del contenuto e con l’intenzione di produrlo o diffonderlo, è problematico. L’uso di software automatizzati o la delega a sistemi IA di parte del processo creativo può attenuare o oscurare la reale volontà dell’agente, complicando la prova dell’elemento soggettivo del reato.

– Paternità del prompt o manipolazione: nei casi in cui il contenuto sia generato su richiesta (prompt testuale) o mediante successive modifiche tramite tecniche di morphing o deepfake, occorre stabilire chi abbia effettivamente impartito tali istruzioni o operato le modifiche. La natura decentralizzata e spesso criptata delle piattaforme utilizzate, oltre alla possibilità di utilizzo di VPN o server esteri, riduce la possibilità di tracciamento e di identificazione dell’operatore.

In aggiunta, le autorità investigative si trovano spesso ad affrontare file anonimi o salvati su dispositivi di utenti terzi, la cui provenienza è difficile da ricostruire. Questa condizione è ulteriormente aggravata dalla distribuzione transnazionale dei contenuti, che solleva questioni di competenza territoriale, cooperazione internazionale e armonizzazione delle normative penali.

La collaborazione tra Stati membri dell’Unione Europea, così come con Paesi terzi, è cruciale per affrontare efficacemente la diffusione globale di questo tipo di materiale, ma i diversi ordinamenti nazionali presentano talvolta lacune normative e procedure investigative non allineate, ostacolando la tempestività e l’efficacia degli interventi repressivi.

In sintesi, l’evoluzione tecnologica impone un ripensamento degli strumenti investigativi tradizionali, richiedendo lo sviluppo di nuove metodologie di indagine digitale, l’adozione di standard condivisi per la raccolta e conservazione delle prove digitali, nonché l’implementazione di un coordinamento internazionale più stringente. Solo così sarà possibile garantire una risposta penale adeguata e proporzionata alle sfide poste dai contenuti pedopornografici generati artificialmente.

7. Strumenti tecnologici e metodologie investigative contro la pedopornografia generata da IA

Per superare le difficoltà probatorie evidenziate, le forze dell’ordine e gli organi investigativi stanno adottando strumenti e metodologie avanzate specifiche per l’analisi digitale di contenuti generati da intelligenza artificiale, tra cui:

– Analisi forense digitale e tracciamento dei metadati: anche se i file generati da IA tendono a non contenere metadati completi o facilmente interpretabili, le tecniche di digital forensics possono estrarre informazioni da cache, log di sistema o traffico di rete. L’analisi dei metadati residui consente di ricostruire, almeno parzialmente, la catena di produzione e diffusione del contenuto.

Fingerprinting e hashing di immagini/video: algoritmi avanzati permettono di creare “impronte digitali” univoche per contenuti multimediali, anche modificati o compressi. Questi fingerprint possono essere confrontati con database nazionali e internazionali per identificare contenuti già noti o correlati ad altri reati.

– Tecniche di riconoscimento e analisi biometrica: per i casi in cui siano coinvolti volti o corpi di minori reali, si utilizzano sistemi di riconoscimento facciale o di confronto biometrico con immagini pubbliche o segnalate, anche se è fondamentale rispettare la normativa sulla privacy.

– Intelligenza artificiale per il rilevamento automatico: paradossalmente, anche l’IA può essere uno strumento di contrasto, attraverso algoritmi di machine learning addestrati a identificare caratteristiche comuni di immagini o video pedopornografici, anche quando manipolati o sintetici.

– Collaborazione internazionale e piattaforme di condivisione: iniziative come INHOPE o il Centro europeo per la lotta alla criminalità informatica (EC3) della Europol facilitano lo scambio di informazioni e la coordinazione tra polizie e magistrature di diversi paesi, incrementando l’efficacia delle indagini.

Nonostante questi progressi, rimangono aperte sfide significative, soprattutto in relazione alla rapidità con cui vengono prodotti nuovi contenuti e alla capacità delle leggi di adeguarsi alla continua evoluzione tecnologica. La formazione specifica degli operatori e l’aggiornamento normativo sono elementi chiave per assicurare una risposta efficace e tempestiva.

8. Il quadro europeo e le proposte di riforma

A livello sovranazionale, l’Unione Europea ha assunto un ruolo sempre più centrale nel promuovere strumenti normativi volti a contrastare la pedopornografia online, anche nella sua variante sintetica. Nel maggio 2022, la Commissione europea ha presentato una proposta di Regolamento finalizzata alla prevenzione e al contrasto dell’abuso sessuale sui minori, che prevede obblighi in capo ai provider di servizi digitali, tra cui:

– l’adozione di strumenti automatizzati per la rilevazione di materiale pedopornografico noto e di nuova generazione (compresi i contenuti sintetici);

– la segnalazione obbligatoria alle autorità competenti;

– l’istituzione di un’autorità centrale europea (EU Centre) per il coordinamento delle attività di controllo e rimozione.

La proposta ha suscitato ampio dibattito, in particolare sul piano della compatibilità con i diritti fondamentali, come la tutela della privacy e la libertà di espressione. Tuttavia, essa rappresenta un chiaro segnale della volontà del legislatore europeo di rafforzare l’azione preventiva e repressiva, anche attraverso tecnologie di intelligenza artificiale “difensiva”.

Parallelamente, alcuni ordinamenti nazionali (come Germania, Paesi Bassi e Canada) stanno valutando o hanno già introdotto nuove fattispecie autonome per la pornografia generata artificialmente, prevedendo la punibilità anche del solo possesso o della diffusione di contenuti che rappresentano minori in modo verosimile, anche se non reali.

Tali approcci riflettono un progressivo ampliamento dell’area del penalmente rilevante in chiave di prevenzione, che tende a privilegiare l’offensività potenziale e simbolica rispetto alla lesione concreta.

In Italia, il dibattito legislativo appare ancora embrionale.

Nonostante siano emersi alcuni casi mediatici di deepfake pedopornografici (anche con coinvolgimento di minori ignari i cui volti erano stati estratti da social network), manca a oggi una proposta organica di riforma del Codice penale.

Le norme attuali risultano talvolta inadeguate a ricomprendere le nuove forme di rappresentazione artificiale, lasciando margini interpretativi alla giurisprudenza, con evidenti rischi di incertezza applicativa.

In particolare, l’assenza di una definizione legislativa chiara di “materiale generato da intelligenza artificiale” e di criteri oggettivi per la qualificazione del “minore virtuale” rende difficile assicurare un’efficace azione repressiva. In questo contesto, si avverte l’urgenza di una riflessione sistematica sul rapporto tra innovazione tecnologica e diritto penale, che valorizzi da un lato la protezione dei soggetti vulnerabili e, dall’altro, le garanzie fondamentali dell’ordinamento.

9. Conclusioni

L’impiego dell’intelligenza artificiale nella produzione di materiale pedopornografico sollecita un profondo ripensamento delle categorie penalistiche tradizionali, nella prospettiva di colmare vuoti normativi e assicurare una tutela effettiva della dignità e dell’integrità dei minori.

È necessario, da un lato, un intervento legislativo mirato che recepisca le specificità dei contenuti generati artificialmente, e dall’altro, un’evoluzione interpretativa della giurisprudenza che riconosca l’offensività anche di rappresentazioni “virtuali”, prive di vittime reali ma in grado di alimentare dinamiche devianti, mercati illeciti e distorsioni percettive del ruolo del minore.

Il diritto penale non può restare indifferente di fronte all’impatto antropologico e criminogeno delle nuove tecnologie: è chiamato a bilanciare, con responsabilità, l’esigenza di tutela con quella di proporzionalità e legalità, evitando derive simboliche o proibizionistiche, ma garantendo una protezione sostanziale ed effettiva dei soggetti più vulnerabili.


Salvis Juribus – Rivista di informazione giuridica
Direttore responsabile Avv. Giacomo Romano
Listed in ROAD, con patrocinio UNESCO
Copyrights © 2015 - ISSN 2464-9775
Ufficio Redazione: redazione@salvisjuribus.it
Ufficio Risorse Umane: recruitment@salvisjuribus.it
Ufficio Commerciale: info@salvisjuribus.it
***
Metti una stella e seguici anche su Google News
The following two tabs change content below.
Avv. Federico Cicillini Avvocato iscritto all’Ordine di Velletri, esercita la professione forense con un focus particolare sul diritto penale e sulla difesa dei diritti della persona e della personalità, con esperienza in pratiche di rettifica del genere anagrafico, tutela della privacy e dignità individuale.

Articoli inerenti

Violenza assistita e art. 572 c.p.: criticità e riforme

Violenza assistita e art. 572 c.p.: criticità e riforme

Abstract. La riflessione giuridico-criminologica sul fenomeno della c.d. “violenza assistita” permane al centro del dibattito sulla riforma della...

Recidiva semplice e aggravanti: la Corte Costituzionale dice basta agli automatismi

Recidiva semplice e aggravanti: la Corte Costituzionale dice basta agli automatismi

Sommario: 1. Il fatto in sintesi: il concorso tra aggravante autonoma ex art. 612, secondo comma, c.p. e la recidiva semplice nel caso di specie –...

Stalking: tra la paura reale e la labile soglia dell’illecito penale

Stalking: tra la paura reale e la labile soglia dell’illecito penale

di Angelica Proietti Tra le fattispecie penali maggiormente presenti nei fascicoli delle Procure italiane, quella prevista dall’art. 612-bis c.p...

Omicidio preterintenzionale: addio alla responsabilità oggettiva?

Omicidio preterintenzionale: addio alla responsabilità oggettiva?

Sommario: Premessa – 1. Una travagliata evoluzione giurisprudenziale: dalla nuda “causalità” alla fictio del c.d. “dolo di...