Negli Stati Uniti, come nel resto del mondo, le segnalazioni di voice-scam crescono di giorno in giorno. Colpa di software basati sull’AI come VALL-E in grado di imitare perfettamente la voce umana
Era solo questione di tempo… adesso la “tempesta perfetta” del voice-scam si sta addensando all’orizzonte.
Sono passate poche settimane dal lancio sul mercato di VALL-E (ne avevamo parlato qui), il nuovo modello di intelligenza artificiale generativa per la sintesi vocale, e già iniziano a spuntare, come funghi, le segnalazioni di truffe vocali da ogni parte del globo.
Pochi giorni fa, uno dei tanti casi è stato rilanciato dal prestigioso quotidiano statunitense The Washington Post come esemplificativo dei rischi associati allo scam vocale tramite AI. La storia ha come protagonisti due anziani coniugi canadesi. Un giorno come tanti, Ruth Card, 73 anni, e suo marito, Greg Grace, 75 anni, ricevono improvvisamente la chiamata di quello che sembra essere loro nipote Brandon. Dice che è in prigione, senza portafoglio e cellulare, che ha bisogno di soldi per la cauzione e fornisce un numero di conto online. Conclude la telefonata, tutta d’un fiato, dicendo che li ama e non vede l’ora di riabbracciarli. Tanto basta perché i due nonni corrano in banca per inviare la cifra richiesta: 3mila dollari canadesi.
Come riportato sempre dal quotidiano USA, truffe vocali del genere si stanno diffondendo a macchia d’olio negli Stati Uniti. Stando ai dati della Federal Trade Commission, nel solo 2022, sono state ben 5.100 le segnalazioni di persone truffate, via telefono, da persone che fingevano di essere amici e familiari.
Leggi anche L’AI di Microsoft diventa più umana: ora si può scegliere il tono delle risposte di ChatGPT
Il problema è che, se qualche anno fa occorrevano ore di registrazioni e una certa abilità per imitare le voci, adesso software come VALL-E richiedono appena tre secondi di sampling per generare accuratamente la voce di una persona. Praticamente basta aver caricato online una minima registrazione audio-video per essere a rischio… “clonazione”!
Ha fatto scalpore, in questo senso, l’esperimento della startup americana ElevenLabs che, tramite il proprio software di sintesi vocale, ha replicato alla perfezione le voci di diverse celebrità. Tra queste troviamo la versione AI di Emma Watson, impegnata a recitare passaggi del “Mein Kampf”.
Esiste una forma di protezione da tutto questo? La risposta semplice è “no”. O almeno, non ancora. In effetti rintracciare i “voice scammers” è particolarmente difficile perché le chiamate potrebbero provenire da ogni parte del mondo. Senza contare che non esiste nemmeno una legislazione specifica a riguardo.
C’è persino chi ha avanzato la proposta di rendere le società che forniscono tool di AI corresponsabili in caso di truffe; con tutte le (enormi) ripercussioni del caso.
Ecco allora che non resta che un’unica arma a disposizione: la cara, vecchia diffidenza. Quello che sembra un vostro caro vi telefona dicendo che ha bisogno di soldi alla svelta? Mettete in attesa la chiamata e provate a richiamarlo separatamente. Vi indica un conto online sconosciuto, una cifra in bitcoin o chiede un buono regalo? Be’, fatevi più di qualche domanda e… chiudete la telefonata.