Negli ultimi anni, la diffusione di video e audio manipolati grazie all’intelligenza artificiale – i cosiddetti deepfake – ha sollevato crescenti preoccupazioni per i possibili danni derivanti dalla loro circolazione incontrollata. Questi contenuti, capaci di far dire o fare a una persona cose mai accadute, sono diventati una minaccia concreta per la reputazione e la sicurezza di chiunque, in particolare se si tratta di soggetti pubblici, con il rischio di influenzare l’opinione pubblica e disinformare i cittadini sui social network.
Il legislatore italiano ha risposto a queste nuove sfide con l’approvazione della Legge 132/2025 sull’intelligenza artificiale, in vigore dal 10 ottobre 2025. Tra le principali novità, spicca l’introduzione dell’art. 612-quater nel codice penale, inserito dall’art. 26 della nuova legge. La disposizione prevede che “chiunque cagiona un danno ingiusto ad una persona, cedendo, pubblicando o altrimenti diffondendo, senza il suo consenso, immagini, video o voci falsificate o alterati mediante l’impiego di sistemi di intelligenza artificiale e idonei a indurre in inganno sulla loro genuinità, è punito con la reclusione da uno a cinque anni. Il delitto è punibile a querela della persona offesa. Si procede tuttavia d’ufficio se il fatto è connesso con altro delitto per il quale si deve procedere d’ufficio ovvero se è commesso nei confronti di una persona incapace, per età o per infermità, o di una pubblica autorità a causa delle funzioni esercitate“.
L’intento della norma è chiaro: colmare i vuoti di tutela che, fino ad oggi, caratterizzavano non solo l’ambito penale, ma anche altri settori del diritto, rispetto ai danni causati dalla diffusione di deepfake. In precedenza, ad esempio, la disciplina del cosiddetto “revenge porn” consentiva di perseguire la diffusione di contenuti generati con l’intelligenza artificiale solo se a sfondo sessuale, lasciando escluse numerose condotte lesive realizzate mediante i nuovi strumenti tecnologici.
Non mancano tuttavia le criticità. Alcuni esperti sottolineano come la nuova fattispecie sia formulata in termini molto generici, rischiando di creare incertezze interpretative e applicative. In particolare, desta perplessità la difficoltà di accertare l’elemento psicologico del dolo, ovvero la volontà cosciente di arrecare un danno tramite la diffusione di deepfake, e il potenziale rischio di conflitto con reati già previsti dal codice penale, come la diffamazione.
Il dibattito resta aperto: il rischio è che un diritto penale nato con l’idea di rafforzare le tutele possa rivelarsi, nella prassi, poco efficace.
Nonostante le perplessità, la legge 132/2025 rappresenta senza dubbio il primo intervento organico del legislatore italiano volto a disciplinare l’uso dell’intelligenza artificiale in modo coordinato con il diritto europeo e con i principi costituzionali. Resta ora da vedere se, alla prova dei fatti, le nuove norme sapranno davvero tutelare efficacemente le vittime delle manipolazioni digitali e garantire un equilibrio tra innovazione tecnologica e diritti fondamentali.




