Deepfake, quando l’Intelligenza Artificiale diventa un reato: cosa prevede la nuova legge italiana
- Avv. Giulio Cristofori

- 8 ott
- Tempo di lettura: 8 min
Negli ultimi anni l’Intelligenza Artificiale ha reso possibile creare immagini, video o registrazioni vocali del tutto falsi, ma capaci di sembrare reali. È così che nascono i cosiddetti deepfake, contenuti digitali costruiti da algoritmi in grado di imitare perfettamente volti e voci umane.
Se in certi contesti questa tecnologia può avere un uso lecito (come ad esempio nel cinema), in altri può trasformarsi in uno strumento pericoloso. Proviamo a pensare alla diffusione di un video falso per screditare una persona o alla simulazione di dichiarazioni mai pronunciate.
Per colmare un vuoto normativo che durava da anni sul tema, il legislatore è intervenuto con la Legge n. 132 del 2025, introducendo nel Codice Penale l’art. 612-quater, che punisce chi crea o diffonde contenuti deepfake idonei a trarre in inganno e a causare un danno ingiusto.
Io sono l’Avv. Penalista Giulio Cristofori e in questo articolo analizzo da vicino la questione deepfake in Italia, offrendo una panoramica chiara sul nuovo reato, sugli effetti pratici della norma e su come può agire chi subisce la diffusione di un contenuto artificiale offensivo o lesivo della propria immagine.
Indice dei contenuti
Deepfake: definizione e funzionamento
Prima di capire perché il legislatore ha deciso di intervenire, è utile partire dalla definizione di deep fake. Il termine deriva dall’unione di deep learning (apprendimento profondo) e fake (falso) e indica contenuti digitali (immagini, video o audio) manipolati o generati interamente dall’Intelligenza Artificiale.
Come funziona?
Attraverso reti neurali e algoritmi di apprendimento automatico, questi sistemi riescono a riprodurre con sorprendente fedeltà l’aspetto, la voce e i movimenti di una persona reale, dando vita a materiale che appare autentico ma non lo è. In pratica, il software “impara” da migliaia di immagini o registrazioni e poi costruisce un falso perfetto, difficile da distinguere persino a occhio esperto.
Due esempi di immagini generate da AI. I volti sono stati generati al computer. NON sono persone reali (fonte: Wikipedia)
Attenzione! Non sempre i deepfake sono illegittimi.
I deepfake possono avere usi legittimi (ad esempio, nel doppiaggio cinematografico o nella ricostruzione di scene storiche), ma diventano illeciti quando vengono diffusi per ingannare, danneggiare o offendere qualcuno. In questi casi non si tratta più di un esperimento tecnologico, ma di una condotta che può avere conseguenze penali rilevanti.
Dati i forti rischi legati a un uso illecito di questa tecnologia, il legislatore italiano ha ritenuto necessario un intervento, inserendo nel codice penale una norma dedicata che sanziona chi crea o diffonde deepfake in grado di trarre in inganno e provocare un danno ingiusto, riconoscendo ufficialmente il fenomeno come reato di Intelligenza Artificiale.
La questione deepfake in Italia: una panoramica giuridica
Fino al 2025 l’ordinamento italiano non prevedeva una norma specifica per punire la creazione o la diffusione di contenuti manipolati dall’Intelligenza Artificiale.
Le vittime di deepfake potevano soltanto ricorrere a reati già esistenti - diffamazione (art. 595 c.p.), trattamento illecito di dati personali (art. 167 del Codice Privacy) o sostituzione di persona (art. 494 c.p.) - con risultati spesso incerti, perché tali fattispecie non coprivano l’uso di strumenti digitali evoluti come le reti neurali generative.
Tuttavia, negli ultimi anni abbiamo assistito a una diffusione esponenziale di contenuti falsificati con l’uso dell’IA, al punto da richiedere un intervento legislativo. Diversi episodi hanno mostrato quanto fosse facile creare falsi apparentemente autentici e danneggiare gravemente la reputazione di individui o imprese.
Esempi di deepfake in Italia
Un primo caso emblematico è stato segnalato dalla Polizia Postale nel 2023 e riportato da testate come Il Sole 24 Ore e La Repubblica: la creazione di video pornografici deepfake che ritraevano volti di persone comuni, poi diffusi sui social senza consenso. Sebbene le immagini fossero state generate artificialmente, le vittime (reali) hanno subito conseguenze sociali e psicologiche pesanti. Il problema era che non esisteva un reato ad hoc che punisse l’autore.
Un altro episodio, riportato da Wired Italia e dal Financial Times nel 2024, riguardava una truffa aziendale internazionale. La voce di un dirigente d’impresa, ricostruita con un sistema di IA generativa, fu utilizzata per convincere un collaboratore a disporre un bonifico verso un conto estero. Anche in quel caso, la condotta non rientrava pienamente nei reati di truffa tradizionale o sostituzione di persona, perché mancava il “contatto umano” diretto tra autore e vittima.
Altri esempi, documentati dall’Osservatorio per la Sicurezza Cibernetica del CNR e da Agenda Digitale, hanno mostrato la comparsa di deepfake politici e giornalistici, utilizzati per simulare dichiarazioni di personaggi pubblici, con evidenti rischi di disinformazione e manipolazione dell’opinione pubblica.
Potrebbe interessarti anche l’articolo Truffe Trading Online: cosa sono, come evitarle e come difendersi.
Intervento del legislatore con la Legge n. 132 del 2025
Questa situazione ha portato il legislatore a intervenire con la Legge n. 132 del 2025, introducendo l’articolo 612-quater del codice penale, che punisce chi diffonde contenuti generati o manipolati con sistemi di Intelligenza Artificiale idonei a indurre in inganno sulla loro genuinità e a causare un danno ingiusto.
La norma rappresenta una risposta diretta alle criticità emerse in questi casi, colmando un vuoto normativo e riconoscendo il deepfake come una nuova forma di offesa penale autonoma.
Allo stesso tempo, l’intervento italiano si inserisce nel quadro europeo delineato dall’AI Act (Regolamento UE 2024/1689), che impone obblighi di trasparenza e tracciabilità per i sistemi di IA ad alto rischio, compresi quelli capaci di generare o alterare contenuti audiovisivi.
La questione deepfake in Italia è quindi a un punto di svolta: il passaggio da un’area grigia giuridica, in cui la vittima poteva solo sperare in interpretazioni estensive, a una tutela esplicita e moderna, capace di affrontare i nuovi rischi dell’era digitale.

Il nuovo reato di deepfake: cosa prevede l’articolo 612-quater c.p.
Come abbiamo visto, con la Legge n. 132 del 2025 il legislatore ha introdotto nel codice penale il nuovo articolo 612-quater, rubricato “Diffusione di contenuti falsificati mediante sistemi di intelligenza artificiale”.
Si tratta di una norma innovativa, la prima in Italia a disciplinare in modo espresso l’uso distorto dell’Intelligenza Artificiale nella creazione e diffusione di contenuti falsi, riconoscendo il fenomeno del deepfake come una minaccia penalmente rilevante.
Ecco il testo dell'articolo:
“Chiunque cagiona un danno ingiusto ad una persona, cedendo, pubblicando o altrimenti diffondendo, senza il suo consenso, immagini, video o voci falsificati o alterati mediante l’impiego di sistemi di intelligenza artificiale e idonei a indurre in inganno sulla loro genuinità, è punito con la reclusione da uno a cinque anni.
Il delitto è punibile a querela della persona offesa. Si procede tuttavia d’ufficio se il fatto è connesso con altro delitto per il quale si deve procedere d’ufficio ovvero se è commesso nei confronti di persona incapace, per età o per infermità, o di una pubblica autorità a causa delle funzioni esercitate.”
Condotta punita
L’articolo 612-quater punisce chi realizza o diffonde contenuti (immagini, video o audio) manipolati o generati da sistemi di IA, quando questi siano idonei a indurre in inganno sulla loro genuinità e possono arrecare un danno ingiusto a una persona.
È importante sottolineare che la norma non richiede che l’inganno si verifichi davvero, ma basta che il contenuto sia potenzialmente ingannevole, cioè in grado di trarre in errore un osservatore medio.
Rientrano nella condotta:
la creazione del deepfake (quando avviene con l’intento di ledere);
la diffusione o condivisione consapevole di un contenuto falsificato (anche attraverso social network, piattaforme di messaggistica o siti web).
L’obiettivo del legislatore è dunque quello di reprimere non solo l’autore materiale, ma anche chi contribuisce a diffondere il contenuto.
Elemento soggettivo: il dolo specifico
Il reato richiede la presenza di un dolo specifico, ossia l’intenzione di causare un danno ingiusto a terzi. In altre parole, non è punibile la semplice imprudenza o la cosiddetta diffusione “per scherzo”, ma serve una volontà concreta di nuocere alla persona rappresentata, compromettendone la reputazione, la sfera privata o gli interessi economici.
Questo aspetto distingue la nuova fattispecie da altri reati come la diffamazione o la sostituzione di persona, poiché il fulcro è proprio l’uso consapevole dell’Intelligenza Artificiale come strumento di offesa.
Procedibilità e denuncia
Il reato di diffusione di contenuti falsificati mediante sistemi di IA è procedibile a querela della persona offesa, come chiarito dalla stessa legge. Solo in casi particolari (quando il fatto è connesso a un reato perseguibile d’ufficio, oppure se la vittima è minore o incapace) si procede d’ufficio, senza necessità di querela.
Chi ritiene di essere stato vittima di un deepfake può dunque sporgere denuncia presso la Polizia Postale o la Procura della Repubblica competente.
Nella pratica, la querela dovrà indicare:
il contenuto falsificato (video, immagine, audio);
il modo in cui è stato diffuso;
gli effetti dannosi subiti (reputazionali, professionali, patrimoniali);
eventuali elementi di prova (link, metadati, screenshot, analisi tecniche).
Pene previste
L’articolo 612-quater prevede la reclusione fino a tre anni o la multa fino a 50.000€, con aggravanti qualora il contenuto riguardi più persone, sia a sfondo sessuale o venga diffuso su larga scala tramite strumenti digitali.
È inoltre espressamente previsto che il nuovo reato non esclude l’applicazione di altre fattispecie concorrenti. In presenza di più violazioni (per esempio diffamazione o trattamento illecito di dati), potranno cumularsi le relative responsabilità.
Tabella di sintesi: quando si configura il reato ex art. 612-quater c.p.
Fonte normativa | Art. 612-quater c.p., introdotto dalla Legge n. 132/2025 (in vigore dal 10 ottobre 2025) |
Condotta punita | Realizzare o diffondere contenuti (immagini, video, audio) generati o manipolati con IA, idonei a trarre in inganno e a causare un danno ingiusto |
Elemento soggettivo | Dolo specifico: volontà di arrecare un danno ingiusto a terzi |
Procedibilità | A querela della persona offesa; d’ufficio se la vittima è minore/incapace o se il fatto è connesso a un reato perseguibile d’ufficio |
Sanzione | Reclusione fino a 3 anni o multa fino a 50.000€ |
Reati concorrenti | Possibile concorso con diffamazione, sostituzione di persona, trattamento illecito di dati personali, truffa o estorsione |
Finalità della norma | Tutelare la veridicità dell’informazione digitale, la reputazione e la dignità della persona nell’uso dell’Intelligenza Artificiale |
Deepfake: il ruolo di un Avvocato Penalista
Con l’articolo 612-quater c.p., il legislatore ha riconosciuto che l’uso distorto dell’Intelligenza Artificiale può costituire un vero e proprio reato penale. Il deepfake non è più solo un fenomeno tecnologico, ma un comportamento che può ledere la dignità e la verità delle persone.
In un contesto in cui i confini tra reale e artificiale diventano sempre più sottili, conoscere i propri diritti e reagire con tempestività è la prima forma di tutela.
Oppure prenota direttamente un appuntamento 👇
Seguimi anche sui social per rimanere aggiornato sulle ultime novità del settore.
Domande frequenti
Quali sono i tipi più comuni di deepfake?
I tipi più diffusi sono i video in cui il volto di una persona viene sostituito con quello di un’altra, gli audio che imitano la voce umana per generare conversazioni o messaggi falsi e le immagini manipolate o interamente create dall’intelligenza artificiale. Esistono anche versioni ibride che combinano voce e volto, rendendo la falsificazione ancora più realistica.
Quali sono le architetture che costituiscono la base tecnologica dei deepfake?
I deepfake si basano su reti neurali generative, in particolare sulle GAN (Generative Adversarial Networks), formate da due reti che si “sfidano” per produrre contenuti sempre più convincenti. Un’altra architettura utilizzata è quella degli autoencoder, che apprendono e ricostruiscono volti e movimenti da enormi quantità di dati visivi.
Qual è un indicatore comune di un video deepfake?
Un segnale tipico è la scarsa sincronizzazione tra i movimenti delle labbra e l’audio, ma anche dettagli come lo sguardo innaturale, la luce incoerente tra volto e sfondo o l’assenza di micro-espressioni autentiche possono indicare la presenza di una manipolazione digitale.





Commenti