Benvenuti nel lato oscuro dei social media: i contenuti “inappropriati”

Con miliardi di utenti attivi, colossi come Meta e YouTube sono impegnati a filtrare il caricamento di milioni di contenuti inappropriati ogni giorno. Un compito ancora largamente affidato a persone in carne e ossa, alle prese con un’enorme pressione psicologica

 

 

“Questo contenuto viola gli standard della nostra comunità e verrà rimosso”. È la dicitura standard con la quale Facebook e altre piattaforme social rigettano il caricamento di contenuti ritenuti “inappropriati”. Per la maggior parte, come si legge nelle stesse linee-guida fornite da Meta, si tratta di materiale che include:

• immagini di nudo o altri contenuti con allusioni sessuali;

• discorsi di incitamento all’odio, minacce credibili o attacchi diretti a persone o gruppi;

• contenuti autolesionisti o eccessivamente violenti;

• profili falsi o di impostori;

• spam.

Una “censura” preventiva che, fino a poco tempo fa, richiedeva il lavoro di un numero enorme di moderatori umani chiamati a visionare personalmente centinaia di migliaia di immagini e video a dir poco allucinanti. Violenza estrema su persone e animali, pedopornografia, immagini non censurate di incidenti e vittime di guerra, contenuti profondamente razzisti e omofobi… l’elenco di quanto viene filtrato prima di finire sulle nostre bacheche social è praticamente infinito. E comporta enormi costi economici, ma anche psicologici.

 

 

Leggi anche: Intelligenza artificiale o truffa? Perché l’AI Washing è sempre più diffuso

 

 

Nel 2021, ad esempio, Facebook e YouTube, piattaforme con oltre 2 miliardi di utenti attivi al mese, potevano contare su qualcosa come 10mila moderatori di contenuti. Alcuni interni, altri appaltati ad agenzie.

Un mondo, quello del Content Moderation, che sembra un incubo a occhi aperti. Nel 2019 fece discutere un articolo pubblicato sul magazine The Verge sulle condizioni di lavoro dei moderatori di Facebook. Il reportage includeva una serie di interviste sull’impatto traumatico che la revisione di contenuti disturbanti ogni giorno, per ore e ore, provoca sulla psiche umana. Molti degli intervistati dichiaravano di soffrire di disturbi da stress post-traumatico (PTSD) e altri problemi di salute mentale – inclusa una certa dissociazione dalla realtà – a causa del loro lavoro.

Nell’articolo venivano citati gli esempi di dipendenti che avevano iniziato a credere che l’11 settembre fosse una gigantesca macchinazione o che l’Olocausto non si fosse mai verificato. Senza contare quelli che, traumatizzati dalla visione regolare di omicidi e violenze di ogni genere, sembravano aver perso ogni forma di empatia.

 

 

Leggi anche: Ecco Threads, l’app che sfida Twitter

 

 

Un altro pezzo, pubblicato questa volta sul magazine Wired nel 2020, denunciava, invece, i ritmi massacranti ai quali erano sottoposti i moderatori di YouTube, piattaforma che ogni giorno si trova a gestire il caricamento di 3,7 milioni di video.

Solamente negli ultimi anni, l’introduzione sistematica di tool di intelligenza artificiale ha contribuito ad alleviare il lavoro dei revisori di contenuti social. Con un grosso punto interrogativo però: l’AI sembra, infatti, avere ancora dei problemi nel distinguere i limiti, spesso sfumati, che separano un contenuto accettabile da uno inappropriato. Pensiamo, ad esempio, alle immagini di un incidente stradale o di una zona bombardata, ma anche semplicemente alla foto di un bambino in spiaggia o al video di un giornalista che riporta affermazioni razziste o sessiste pronunciate da altri.

Da qui, non solo la necessità di “allenare” costantemente i software di AI, ma anche di mantenere una supervisione umana.

Un lavoro che definire ingrato è riduttivo.

Benedetto Antuono

Potrebbero interessarti

PODCAST

Pornhub e il Digital Service Act: nuove regole per la tutela online
Big Data

Gli impatti del Digital Services Act. Il caso Pornhub

Ospite: Fulvio Sarzana, Marco Scialdone

A LITTLE PRIVACY, PLEASE!
con Sergio Aracu, Marco Trombadore

PODCAST

Nell'ultimo decennio, la guida autonoma ha catturato l'immaginazione di milioni di persone in tutto il mondo. Un fenomeno che ha trascinato con sé promesse di maggiore sicurezza stradale, efficienza e comodità. Tuttavia, dietro questa innovazione che sembra appartenere a un futuro lontano, si cela un intricato labirinto di responsabilità legali e sfide normative che devono ancora essere affrontate e risolte. Il Professore Enrico Al Mureden, figura di spicco nel panorama giuridico e accademico italiano, ci accompagna in un viaggio attraverso i livelli della guida autonoma, svelando le complessità che circondano questo fenomeno. I Livelli della Guida Autonoma: Decifrando la Classificazione SAE Quando si parla di guida autonoma, ci si imbatte spesso nei livelli definiti dalla Society of Automotive Engineers (SAE). Questi livelli, che vanno dall'1 al 5 (con l'aggiunta del "Livello 0"), delineano il grado di automazione presente nei veicoli. Da automobili "storiche" che richiedono l'input completo del conducente (Livello 0) fino alla piena automazione senza necessità di intervento umano (Livello 5), il panorama è estremamente variegato. La Responsabilità Legale: Un Terreno Ancora Inesplorato Con l'avvento della guida autonoma, sorgono interrogativi cruciali riguardanti la responsabilità legale in caso di incidenti o malfunzionamenti dei sistemi autonomi. Chi è da ritenere responsabile in situazioni di emergenza? Il conducente? Il produttore del veicolo? O forse entrambi? Il quadro normativo attuale non offre ancora risposte esaustive a queste domande, lasciando un vuoto che deve essere colmato al più presto. Sebbene siano stati fatti passi avanti, come l'introduzione dell'articolo 34bis "Guida Autonoma", ci troviamo ancora di fronte a una fase di transizione e adattamento. L'Integrazione Tecnologica e Sociale: Una Sinergia Necessaria La guida autonoma non è solo una questione di tecnologia, ma anche di integrazione sociale e legale. È cruciale coinvolgere esperti non solo nel campo dell'ingegneria, ma anche della filosofia, sociologia e giurisprudenza per garantire un approccio olistico e sostenibile a questa rivoluzione. Il Futuro della Guida Autonoma: Oltre le Macchine Isolate È importante ricordare che la guida autonoma non esiste in un vuoto tecnologico, ma è parte integrante di un contesto più ampio. La collaborazione tra settori e la revisione delle normative sono fondamentali per garantire una transizione fluida verso un futuro in cui la guida autonoma sarà la norma piuttosto che l'eccezione. In conclusione, la guida autonoma rappresenta una delle sfide più affascinanti e complesse del nostro tempo. Tuttavia, affrontare queste sfide richiede non solo innovazione tecnologica, ma anche una profonda riflessione etica e legale. Solo integrando tutte queste componenti potremo realizzare pienamente il potenziale trasformativo della guida autonoma, garantendo nel contempo la sicurezza e la responsabilità per tutti gli attori coinvolti.
Governance tecnologica

Guida autonoma: tecnologia e responsabilità legale

Ospite: Enrico Al Mureden

LEGALTECH SHOW
con Silvano Lorusso, Nicolino Gentile

PODCAST

Cultura e Società

La solitudine del sopravvissuto

CIFcast
con Lorenzo Davia, Damiano Lotto, Emiliano Maramonte

PODCAST

Patrizia Rutigliano (Poste Italiane): una transizione ecologica equa è possibile
Cultura e Società

PATRIZIA RUTIGLIANO (Poste Italiane): una transizione ecologica equa è possibile

Ospite: Patrizia Rutigliano

WOW - WOMEN ON WEB
con Federica Meta, Francesca Pucci

PODCAST

Donne al centro della scienza: quanto manca alla rivoluzione?
Cultura e Società

Donne al centro della Scienza: quanto manca alla rivoluzione?

WOW - WOMEN ON WEB
con Federica Meta, Francesca Pucci

PODCAST

NaN - nuovo podcast
Intelligenza artificiale

NaN – Not a Name, il nuovo podcast “esplosivo” sulle AI

NaN - Not a Name
con Michele Stingo, Enrico Iannucci