La clonazione vocale è una tecnologia emergente che permette di creare una voce artificiale che riproduce in modo indistinguibile quella di una persona reale. Questa tecnologia sta suscitando un crescente interesse, ma anche preoccupazione per i possibili rischi che potrebbe comportare.
Disinformazione e propaganda:
La clonazione vocale potrebbe essere utilizzata per diffondere disinformazione e propaganda, creando deepfake audio o video in cui personaggi pubblici o autorevoli pronunciano dichiarazioni false o fuorvianti.
Ad esempio, un deepfake vocale potrebbe essere utilizzato per creare un video in cui un politico pronuncia un discorso in cui incita alla violenza. Questo video potrebbe essere diffuso sui social media per screditare il politico o per fomentare l'odio.
La clonazione vocale potrebbe anche essere utilizzata per creare deepfake audio in cui personaggi pubblici pronunciano dichiarazioni false o fuorvianti. Ad esempio, un deepfake vocale potrebbe essere utilizzato per creare un audio in cui un virologo afferma che un vaccino è pericoloso.
Questo audio potrebbe essere diffuso per scoraggiare le persone dal farsi vaccinare.
Frode:
La clonazione vocale potrebbe essere utilizzata per commettere frodi o truffe, ad esempio chiamando le persone con la voce di un familiare o di un amico per estorcere denaro.
Ad esempio, un truffatore potrebbe utilizzare la clonazione vocale per chiamare una persona e farsi passare per un familiare in difficoltà. Il truffatore potrebbe chiedere alla persona di trasferire del denaro su un conto bancario controllato dal truffatore.
La clonazione vocale potrebbe anche essere utilizzata per creare deepfake audio in cui la persona pronuncia dichiarazioni compromettenti. Ad esempio, un deepfake vocale potrebbe essere utilizzato per creare un audio in cui la persona confessa un crimine. Questo audio potrebbe essere utilizzato per ricattare la persona.
Intimidazione e ricatto
La clonazione vocale potrebbe essere utilizzata per intimidire o ricattare le persone, ad esempio creando deepfake audio in cui la persona pronuncia dichiarazioni offensive o diffamatorie.
Ad esempio, un cyberbullo potrebbe utilizzare la clonazione vocale per creare un audio in cui la vittima pronuncia dichiarazioni offensive. Questo audio potrebbe essere diffuso sui social media per umiliare la vittima.
La clonazione vocale potrebbe anche essere utilizzata per creare deepfake audio in cui la persona pronuncia dichiarazioni compromettenti. Ad esempio, un deepfake vocale potrebbe essere utilizzato per creare un audio in cui la persona confessa un tradimento.
Questo audio potrebbe essere utilizzato per ricattare la persona.
Analisi dei rischi
Per mitigare i rischi della clonazione vocale è necessario adottare una serie di misure, tra cui:
Educazione del pubblico: è importante informare il pubblico sui potenziali rischi della clonazione vocale, in modo da renderlo più consapevole di questa tecnologia e meno vulnerabile alle sue manipolazioni.
Sviluppo di tecnologie di rilevamento: è necessario sviluppare tecnologie di rilevamento in grado di identificare i deepfake audio e video.
Regolamentazione: è necessario adottare una regolamentazione che limiti l'utilizzo della clonazione vocale per scopi illeciti. ( Sensibilizzare il Legislatore )
I rischi della clonazione vocale possono essere suddivisi in due categorie principali:
Rischi sociali: i rischi che riguardano la società nel suo complesso, come la diffusione di disinformazione e propaganda, la commissione di frodi e truffe e l'intimidazione e il ricatto.
Rischi individuali: i rischi che riguardano le persone, come la perdita di fiducia nelle istituzioni, la violazione della privacy e la discriminazione.
Rischi sociali
La clonazione vocale potrebbe avere un impatto negativo sulla società in una serie di modi.
In primo luogo, la clonazione vocale potrebbe essere utilizzata per diffondere disinformazione e propaganda. I deepfake audio e video potrebbero essere utilizzati per creare contenuti falsi o fuorvianti che potrebbero essere utilizzati per manipolare l'opinione pubblica.
In secondo luogo, la clonazione vocale potrebbe essere utilizzata per commettere frodi e truffe. I deepfake audio potrebbero essere utilizzati per ingannare le persone e ottenere denaro o informazioni personali.
In terzo luogo, la clonazione vocale potrebbe essere utilizzata per intimidire o ricattare le persone. I deepfake audio potrebbero essere utilizzati per creare contenuti offensivi o diffamatori che potrebbero essere utilizzati per danneggiare la reputazione o la carriera di una persona.
Esempi di casi reali
Esistono già alcuni casi reali in cui la clonazione vocale è stata utilizzata per scopi illeciti. Ad esempio, nel 2021, un uomo è stato arrestato in Florida per aver utilizzato la clonazione vocale per creare un deepfake audio in cui la sua ex-moglie pronunciava dichiarazioni false. L'uomo ha utilizzato il deepfake audio per accusare la sua ex-moglie di abusi domestici, in modo da ottenere la custodia dei loro figli.
In un altro caso, avvenuto nel 2022, un gruppo di truffatori ha utilizzato la clonazione vocale per chiamare le persone e farsi passare per un familiare in difficoltà. I truffatori hanno chiesto alle persone di trasferire del denaro su un conto bancario controllato dal gruppo.
Vi invito ad guardare con attenzione su Youtube cercando la parola Deepfake alcuni inetressanti video , che rendono bene l'idea di cosa si possa reliazzare con il clonare la voce di una persona . link in calce
Questa è una tecnologia dalle grandi potenzialità, ma è importante essere consapevoli dei suoi rischi. È necessario adottare misure per mitigare questi rischi e garantire che la tecnologia venga utilizzata in modo responsabile e sicuro.
Yuri Lucarini Indagini Digitali Forensi Criminalista - Criminologo
Comments