Allarme UNICEF: l’AI e la nuova frontiera dell’abuso digitale sui minori

L’UNICEF è sempre più allarmato dalle segnalazioni di un rapido aumento del volume di immagini sessualizzate generate dall’AI che circolano, compresi casi in cui fotografie di bambini sono state manipolate e sessualizzate

 

 

I deepfake – immagini, video o audio generati o manipolati con l’intelligenza artificiale in modo da sembrare reali – vengono sempre più utilizzati per produrre contenuti sessualizzati che coinvolgono bambini, anche attraverso la “nudificazione”, dove gli strumenti di AI vengono utilizzati per spogliare o alterare gli abiti nelle foto per creare immagini falsificate di nudo o sessualizzate.

Nuove evidenze confermano la portata di questa minaccia in rapida crescita: in uno studio condotto da UNICEF, ECPAT e INTERPOL* in 11 Paesi, almeno 1,2 milioni di bambini hanno rivelato che le loro immagini sono state manipolate in deepfake sessualmente espliciti nell’ultimo anno. In alcuni Paesi, ciò rappresenta 1 bambino su 25, l’equivalente di un bambino in ogni classe tipica.

I bambini sono profondamente consapevoli di questo rischio. In alcuni dei Paesi oggetto dello studio, fino a due terzi dei bambini hanno dichiarato di temere che l’intelligenza artificiale possa essere utilizzata per creare false immagini o video a sfondo sessuale. I livelli di preoccupazione variano notevolmente da un Paese all’altro, sottolineando l’urgente necessità di misure più incisive di sensibilizzazione, prevenzione e protezione.

Le immagini sessualizzate di bambini generate o manipolate utilizzando strumenti di AI sono materiale che costituisce abuso sessuale su minorenni (Child Sexual Abuse Material). L’abuso tramite deepfake è un abuso, e non c’è nulla di falso nel danno che provoca. Quando viene utilizzata l’immagine o l’identità di un bambino, quel bambino è direttamente vittimizzato. Anche senza una vittima identificabile, il materiale relativo ad abusi sessuali su minorenni generato dall’AI normalizza lo sfruttamento sessuale dei bambini, alimenta la domanda di contenuti abusivi e presenta sfide significative per le forze dell’ordine nell’identificare e proteggere i bambini che hanno bisogno di aiuto.

L’UNICEF accoglie con grande favore gli sforzi degli sviluppatori di intelligenza artificiale che stanno implementando approcci di sicurezza integrati nella progettazione e solide misure di protezione per prevenire l’uso improprio dei loro sistemi. Tuttavia, il panorama rimane disomogeneo e troppi modelli di AI non vengono sviluppati con adeguate misure di sicurezza. I rischi possono essere aggravati quando gli strumenti di AI generativa sono integrati direttamente nelle piattaforme dei social media, dove le immagini manipolate si diffondono rapidamente.

L’UNICEF chiede con urgenza le seguenti azioni per affrontare la crescente minaccia dei materiali di abuso sessuale su minorenni generati dall’AI:

  •  che tutti i governi amplino le definizioni di materiale di abuso sessuale su minorenni (CSAM) per includere i contenuti generati dall’AI e criminalizzino la sua creazione, acquisizione, possesso e distribuzione;
  • che gli sviluppatori di AI implementino approcci di sicurezza integrati nella progettazione e solide misure di protezione per prevenire l’uso improprio dei modelli di AI;

che le aziende digitali impediscano la diffusione di materiale di abuso sessuale su minorenni generato dall’intelligenza artificiale, non limitandosi a rimuoverlo dopo che l’abuso è avvenuto, e rafforzando la moderazione dei contenuti investendo in tecnologie di rilevamento, in modo che tale materiale possa essere rimosso immediatamente, non giorni dopo la segnalazione da parte della vittima o di un suo rappresentante.

Il danno causato dall’abuso dei deepfake è reale e urgente. I bambini non possono aspettare che la legge si adegui.

 

Note: La presente dichiarazione riflette le posizioni delineate a dicembre 2025 nelle Linee guida dell’UNICEF su intelligenza artificiale e i minorenni 3.0.

*Questi nuovi dati fanno parte della fase 2 del progetto Disrupting Harm, seconda fase di un progetto di Ricerca condotto dall’UNICEF Office of Strategy and Evidence – Innocenti, ECPAT International e INTERPOL, con il finanziamento di Safe Online. Il progetto esamina come le tecnologie digitali facilitino lo sfruttamento e l’abuso sessuale dei minorenni e genera prove per contribuire a rafforzare i sistemi, le politiche e le risposte nazionali.

Nell’ambito di questa fase, nel corso del 2026 saranno pubblicati rapporti nazionali con i risultati a livello di Paese. Le stime qui presentate si basano su indagini nazionali rappresentative condotte da UNICEF e IPSOS su un campione di famiglie in 11 Paesi (Armenia, Brasile, Colombia, Repubblica Domenicana, Messico, Montenegro, Marocco, Macedonia del Nord, Pakistan, Serbia e Tunisia). Ciascuna indagine ha coinvolto un bambino di età compresa tra i 12 e i 17 anni e un genitore o una persona che se ne prende cura, utilizzando un disegno di campionamento volto a ottenere una copertura nazionale completa o quasi completa (91-100%). La Ricerca è stata condotta in Paesi che rappresentano contesti regionali diversi.

Ulteriori dettagli metodologici sono disponibili qui.

 

Fonte: CS UNICEF

Potrebbero interessarti

PODCAST

Big Data

Il trattamento dei dati tra necessità di trasparenza, intelligibilità e accessibilità

Ospite: Luca Bolognini, Giorgio Trono

A LITTLE PRIVACY, PLEASE!
con Sergio Aracu, Laura Liguori

PODCAST

Cultura e Società

Sul Rage Bait, ovvero del perché i contenuti che ci fanno arrabbiare dominano l’infosfera

Ospite: Donald Ruggiero Lo Sardo

DISINFÒRMATI
con Sabrina Colandrea

PODCAST

Cultura e Società

Golden HouR, dialoghi informali sul lavoro che cambia

Ospite: Luciana De Laurentiis, Claudio Allievi, Alessandra Cravetto

GOLDEN HOUR
con Silvia Masciulli

PODCAST

Leadership femminile - ZTE ITalia intervista a Giada Cosentino
Intelligenza artificiale

ZTE: tecnologia per il pianeta, guidata dalla leadership femminile

Ospite: Giada Cosentino

WOW - WOMEN ON WEB
con Federica Meta, Francesca Pucci

PODCAST

Governance tecnologica

La legge italiana sull’intelligenza artificiale tra luci e ombre

Ospite: Massimiliano Masnada

A LITTLE PRIVACY, PLEASE!
con Sergio Aracu, Laura Liguori

PODCAST

Paolo Scoppola arte digitale AI
Cultura e Società

Alla disperata ricerca di autenticità nell’arte digitale

Ospite: Paolo Scoppola

SPECIALE RADIO ACTIVA+
con T. Sharon Vani