Il deepfake è il nuovo inganno digitale che minaccia la realtà

Il deepfake è il nuovo inganno digitale che minaccia la realtà

In un’epoca in cui l’intelligenza artificiale è sempre più diffusa in ogni campo, distinguere il vero dal falso sta diventando una sfida quotidiana, e i deepfake rappresentano la punta più inquietante di questa rivoluzione: video, audio e immagini creati artificialmente, ma talmente realistici da trarre in inganno anche l’occhio più attento.

Nati inizialmente come forma di sperimentazione creativa, i deepfake si sono evoluti rapidamente, divenendo strumenti potenti e pericolosi in mano a chi vuole diffondere disinformazione, truffare o violare la privacy altrui.

Il termine “deepfake” nasce dalla combinazione tra “deep learning”, una branca del machine learning, e “fake”, cioè falso. Si tratta, in pratica, di foto e video montaggi realizzati tramite algoritmi avanzati, capaci di replicare movimenti facciali, espressioni, toni di voce e perfino sfumature emozionali di una persona reale.

E non si parla più di fantascienza: un video manipolato può cambiare il corso di un’elezione, distruggere una reputazione, o convincere un’azienda a trasferire milioni con una semplice telefonata… che in realtà non è mai avvenuta.

La crescita del fenomeno deepfake

La tecnologia dietro i deepfake è oggi più accessibile che mai. Esistono applicazioni gratuite e piattaforme online che permettono, anche a chi non ha competenze tecniche avanzate, di creare video falsi in pochi minuti.

Secondo un report pubblicato nel 2024 da Sumsub, il numero di deepfake rilevati a livello globale è aumentato del 900% rispetto al 2022, con oltre 140.000 contenuti individuati nei primi dieci mesi dell’anno. Si tratta solo della punta dell’iceberg, considerando che la maggior parte dei deepfake non viene mai segnalata.

In parallelo, anche il mercato legato a questa tecnologia cresce: secondo Statista, l’industria dei deepfake valeva circa 79 milioni di dollari nel 2024, ma si prevede che possa superare i 250 milioni entro il 2027.

E mentre le aziende tech investono in strumenti di rilevamento automatico, la velocità con cui i deepfake migliorano rende difficile stare al passo. Gli strumenti per identificarli esistono, ma non sono ancora diffusi né universalmente efficaci.

Casi concreti: dalle frodi ai danni reputazionali

Non si tratta di ipotesi teoriche: i deepfake stanno già causando danni concreti. E adesso ne citeremo alcuni.

Nel febbraio 2024, un caso clamoroso ha colpito l’azienda britannica Arup, dove un dipendente è stato ingannato da una videochiamata apparentemente autentica con il proprio CFO. Il truffatore, usando un deepfake in tempo reale, ha convinto l’ufficio finanziario a trasferire 25 milioni di dollari a un conto estero.

Come già detto, i deepfake possono causare truffe ma anche recare gravi danni reputazionali alle persone.

Anche Marco Liorni, conduttore dell’Eredità, è rimasto vittima del deepfake. In rete e sui social è circolato un video in cui pronuncia insulti e bestemmie, che avrebbe esclamato durante la serata di Rai1 in diretta a L’Anno che verrà.

Il conduttore televisivo, ha voluto chiarire che il video diventato virale che lo vede protagonista è un falso.
Liorni commentò la vicenda dicendo: “Sicuramente quasi tutti riconosceranno il falso. Ma ne basta uno che invece ci crede… Altra occasione per farci qualche domanda sulla facilità di creare fake quasi perfetti con l’intelligenza artificiale”. “Ho già chiesto all’autore di rimuoverlo, mi riservo azione legale”.

L’ultimo caso sconvolgente

Un altro campo critico è quello della pornografia non consensuale, dove il volto di donne famose e non, viene inserito in video hard senza alcun consenso.

Negli ultimi mesi (fine 2024 – inizio 2025), è emerso un fenomeno inquietante: alcuni utenti hanno cominciato a creare deepfake sessuali falsi di ragazze con la sindrome di Down, diffondendoli su piattaforme come OnlyFans e circuiti simili.

In pratica, utilizzano generatori di immagini e video basati sull’intelligenza artificiale per creare persone fittizie che sembrano avere tratti fisici associabili alla sindrome di Down e poi le mostrano in atteggiamenti sessualmente espliciti.

Il caso sconvolgente riguarda quello di “Maria Dopari” una presunta modella con sindrome di Down, che in realtà, non esiste: si tratta solo di profondi interventi di deepfake, realizzati per monetizzare sfruttando la feticizzazione di una disabilità.

Il vecchio account di questo profilo è stato cancellato, ma nelle ultime settimane ne sono ricomparsi di nuovi su Instagram, Youtube e Tiktok, sempre con lo stesso nome. Impossibile decifrare chi ci sia dietro questo account con questo nome falso.

Chiaramente è fondamentale specificare che, se fossero davvero persone (maggiorenni) con la sindrome di down potrebbero fare quello che vogliono, però non è questo il caso, poiché la suddetta ragazza non esiste nella realtà, e siamo dinanzi all’appropriazione di contenuti altrui sommata alla feticizzazione della disabilità.

Il fenomeno è talmente dilagante che alcuni Paesi, come la Corea del Sud, hanno introdotto leggi severe: pene fino a 7 anni di carcere per chi crea o condivide deepfake pornografici senza consenso.

Il deepfake ci fa dubitare del vero

Il problema non è solo tecnologico, ma profondamente culturale e sociale. Se non possiamo più fidarci dei nostri occhi e delle nostre orecchie, cosa resta della verità? I deepfake rappresentano una minaccia diretta alla fiducia collettiva: nelle istituzioni, nei media, nelle relazioni personali.

Il pericolo maggiore dei deepfake, infatti, non è solo quello di farci credere il falso, ma anche quello di farci dubitare del vero.

La fiducia nell’informazione sta crollando, e questo apre uno spazio enorme alla manipolazione. Non è un caso se il World Economic Forum, nel 2024, ha incluso i contenuti manipolati tra i primi cinque rischi globali del decennio.