Il web ormai prolifera di immagini e video iper-realistici generati da software AI con intenti goliardici, ma anche criminali. Ora Intel promette di aver trovato un sistema per riconoscere i deep fake con estrema accuratezza. Ma per quanto?
Papa Bergoglio che indossa un vistoso piumino bianco in stile trapper; Donald Trump arrestato dalla polizia di Manhattan; Tom Cruise che abbraccia appassionatamente Paris Hilton; il Presidente ucraino Volodymyr Zelensky che ordina ai suoi compatrioti di arrendersi all’esercito russo.
Sono alcuni degli esempi più famosi di video e immagini deep fake, ossia contenuti generati dall’intelligenza artificiale così realistici da sembrare veri. Un universo sempre più vasto e ormai accessibile a tutti: dagli studenti newyorkesi che realizzano video in cui il preside della loro scuola pronuncia frasi razziste allo streamer di Twitch che crea video pornografici usando le facce dei suoi conoscenti.
Motivo? Divertirsi e creare contenuti virali sul web, ma anche umiliare e ricattare persone, diffondere disinformazione, nonché distruggere l’immagine pubblica di celebrità e politici.
Ecco perché, in parallelo con l’evoluzione delle tecnologie di Generative AI in grado di creare contenuti sempre più realistici, è diventata necessaria l‘introduzione di strumenti di fact-checking in grado di smascherare immagini e video falsi.
In questo contesto, qualche mese fa, il colosso dell’informatica Intel Corporation ha annunciato la creazione di una nuova tecnologia di rilevamento dei deep fake, chiamata FakeCatcher, capace di identificare un deep fake video nel 96% dei casi.
Come? Rilevando il flusso sanguigno nei volti. Secondo i curatori del progetto, Ilke Demir e Umur Ciftci, quando il sangue viene pompato nelle vene, ad esempio durante un discorso accorato o una semplice passeggiata, i tessuti facciali mutano microscopicamente di colore. Ebbene questi cambiamenti minimi nella carnagione non sono (ancora) replicabili dai software usati per generare i deep fake.
“La domanda che ci poniamo è: cosa caratterizza gli esseri umani?”, ha detto Demir, sottolineando che, nel caso di FakeCatcher, l’approccio non è più quello del deep learning, in cui si cerca di trovare ciò che è falso in un video, ma l’opposto.
Ovviamente FakeCatcher non è l’unico tool anti-deep fake sul mercato. Tra gli altri, possiamo citare AiOrNot, Reality Defender, Attestiv, Blackbird.AI, Sensity AI nonché il decano Microsoft Authenticator.
Lanciato nel 2020 e capace di esaminare foto o video attribuendo un punteggio di affidabilità, il tool era in grado di analizzare minuziosamente i singoli frame e scandagliare le tonalità di colore alla ricerca di incongruenze.
Peccato che, nel tempo, i software di deep fake generation hanno trovato il modo di bypassare il “quality control” in questione, facendone crollare il tasso di affidabilità.
Un chiaro esempio di come, anche in questo campo, non esistano soluzioni definitive, ma solo una serie di mosse più o meno incisive. Né più né meno come in un’infinita partita a scacchi.
Leggi anche: “Uno, nessuno, ChatGPT”, un libro che riflette sull’intelligenza artificiale