top of page

Deepfake e Revenge Porn, responsabilità penale: quando la realtà è manipolata dal codice

Deepfake e Revenge Porn: quando le immagini mentono e la legge deve rincorrere

Quanto possiamo fidarci di ciò che vediamo?

Oggi un software può “indossare” il tuo volto o la tua voce con pochi clic e trasformare la fantasia di qualcuno in un video che sembra vero. Tecnologie nate per il cinema o per i videogiochi sono finite nelle mani di chi vuole ferire, controllare, umiliare. Il risultato? Reputazioni rovinate, identità rubate, vite sconvolte. E il diritto, costruito sull’idea che “una prova visiva non mente”, si ritrova improvvisamente nudo davanti a una realtà manipolabile come una foto su Photoshop.

Deepfake: cos’è e perché ci riguarda tutti

Una volta bastavano i nostri sensi per “certificare” un’immagine. Oggi bastano pochi secondi di filmato e un algoritmo per far dire a un volto qualunque cosa. Il deepfake non è più un esperimento da laboratorio:


  • È accessibile – applicazioni gratuite o a basso costo sono ovunque.

  • È veloce – un pc portatile e qualche dato biometrico, ed ecco il video.

  • È credibile – la qualità è già sufficiente a ingannare l’osservatore medio.


Quando l’immagine manipolata diffama, estorce, danneggia carriere, il codice penale inciampa: il fatto “non è mai accaduto”, ma il danno è palpabile. Siamo davanti a un’aggressione identitaria che non rientra più nelle categorie tradizionali di calunnia o diffamazione.

Ed ecco , a mio avviso la piaga diventa davvero subdola e perversa ......il suo nome è: Deepfake porn. 

Nelle chat private e nei forum anonimi circola una nuova arma: il deepfake porn. Serve solo una foto del volto (presa dal profilo Instagram, ad esempio) e un software fa il resto, incollandolo su scene sessuali esplicite.


  • Vittime principali: studentesse, professioniste, giornaliste.

  • Conseguenze: isolamento sociale, ansia, perdita del lavoro, minacce fisiche.


L’art. 612-ter c.p. tutela chi subisce la condivisione non consensuale di immagini “autentiche”. Ma se l’immagine è al 100 % artificiale?.....qui si complica la cosa ..... Il vuoto normativo è evidente.

Prove false, processi a rischio

Un deepfake può entrare in aula di tribunale come “video schiacciante”. Se non lo riconosci, l’errore giudiziario è dietro l’angolo.


  • Rischio concreto: manipolare un filmato d’interrogatorio, una telefonata o una telecamera di sorveglianza.

  • Contromisure: équipe forensi che analizzano frame per frame, formazione tecnica per magistrati e avvocati, certificazione crittografica delle prove digitali. Trattare la creazione di una prova falsa con la stessa gravità della corruzione di un testimone non è più un’ipotesi ma una necessità. ( Cosa non facile da applicare ) 


Storie vere, danni reali....non molto tempo fà ....


  • Rana Ayyub, giornalista indiana, si è ritrovata protagonista di un video porno generato ad arte: ondata di minacce di morte.

  • Roma una studentessa ha scoperto il proprio volto in un contenuto sessuale condiviso tra compagni di corso: mesi di terapia e abbandono temporaneo degli studi.

  • Negli Stati Uniti un manager ha usato un deepfake per screditare un collega in una causa di lavoro: scoperto solo grazie a un audit tecnico. 


Dietro ogni clip artefatta c’è una persona in carne e ossa che paga un prezzo altissimo.

La legge rincorre: cosa (ancora) manca

Progetti di legge sono sul tavolo, ma il percorso è lento. Servono:


  1. Definizioni chiare di “deepfake” e “contenuto sintetico”.

  2. Reato specifico per la creazione e la diffusione non consensuale di deepfake porn.

  3. Obblighi di “watermark” digitale per chi sviluppa o distribuisce questi strumenti.

  4. Formazione interdisciplinare: giuristi che parlano il linguaggio degli ingegneri, e viceversa.


Solo così si può difendere il confine, sempre più sottile, tra vero e falso.

Verità digitale e giustizia: la sfida di civiltà

La prova regina di domani potrebbe essere un’illusione. Se la verità si compila con qualche riga di codice, la giustizia deve diventare digitale quanto chi la minaccia. Ciò significa:


  • cultura diffusa della verifica (fact-checking visivo per media e cittadini);

  • strumenti investigativi dedicati alle forze dell’ordine;

  • sinergia fra diritto penale, privacy e cybersecurity.


Proteggere la dignità personale non è solo un tema giuridico: è la base stessa della convivenza in una società che ormai vive (anche) dentro a uno schermo.

Deepfake e revenge porn non sono, definiamoli “scherzi informatici”, ma atti di violenza che colpiscono reputazione, identità e salute mentale. Il diritto penale ha il dovere di reagire con norme ad hoc, formazione e tecnologia di supporto, prima che la fiducia collettiva nelle immagini – e nella giustizia – crolli del tutto.

Vi lascio alcuni spunti di riflessione:


  • Siamo davvero in grado di smascherare un video manipolato quando lo vediamo online ?

  • Ha senso introdurre un reato autonomo per il deepfake porn ?

  • Quali misure immediate possono proteggere le vittime di identità digitale falsificata ?

  • Come bilanciare libertà di ricerca sull’IA e prevenzione degli abusi ?

  • Avrei piacere che intervenisse qualche giurista alla conversazione e anche qualche altro collega informatico forense , per confrontare i nostri punti di vista della tematica , che io cerco di semplifocare per renderla piu' fruibile ai molti 


Yuri Lucarini Informatico Forense – Criminologo


ree

 
 
 

Commenti


bottom of page