DISINFÒRMATI

Chi risponde quando l’AI sbaglia? Dentro le redazioni, tra leggi europee e nuove pratiche

News Provider, piattaforme e giornali al banco degli imputati: tra DSA, AI Act e strumenti generativi, la fiducia nell’informazione si costruisce (ancora) a mano

 

 

Cosa succede quando i contenuti passano attraverso algoritmi di raccomandazione, modelli linguistici e workflow redazionali ibridi? In questo episodio di Disinfòrmati, il nostro podcast sull’Infosfera, in collaborazione con Sony Computer Science Laboratories – Rome, proviamo a capire dove finiscono le responsabilità legali e cominciano quelle editoriali.

La giurisprudenza italiana dice che autore e testata giornalistica rispondono di ciò che pubblicano, mentre i provider di hosting rispondono quando sanno di un contenuto illecito e non intervengono con la dovuta diligenza. Fuori dall’aula, però, il gioco si complica: l’AI è ormai entrata nel flusso di lavoro delle redazioni, piattaforme e creator parlano direttamente al pubblico e i nostri feed sono regolati da sistemi opachi.

E in Europa? Il Digital Services Act chiede trasparenza su raccomandazioni e pubblicità. L’AI Act introduce obblighi di etichettatura dei contenuti sintetici, tracciabilità degli usi, verifica della liceità delle fonti e dei dataset. Un dovere che tocca da vicino autori, piattaforme, creator… insomma, chiunque produca o diffonda contenuti.

Nel frattempo, però, l’intelligenza artificiale è entrata dalla porta principale nelle testate giornalistiche. Basti come esempio il caso del Foglio AI, l’inserto quotidiano interamente prodotto con strumenti di AI generativa. Un mese di esperimento, discussioni infuocate e un bilancio finale firmato dal direttore in dialogo con il chatbot.

 

 

Ascolta anche: Immigrazione e polarizzazione, il filtro che cambia lo sguardo

 

 

Nel tentativo di arginare questa rivoluzione, l’Ordine dei Giornalisti ha fissato alcuni paletti in una ricerca pubblicata a febbraio 2025 insieme all’Università LUMSA. La fotografia che emerge dallo studio è ambivalente: da un lato l’AI è percepita come sinonimo di efficienza e Innovazione, dall’altro emergono profondi dubbi sulla trasparenza e sulla qualità dell’informazione prodotta con il supporto della tecnologia.

In questo episodio, in compagnia di Donald Ruggiero Lo Sardo, scienziato della complessità del team di Sony CSL – Rome, proviamo a leggere l’Infosfera rispondendo a due domande: quanto possiamo fidarci di un’informazione prodotta o filtrata dall’AI? E chi risponde quando l’intelligenza artificiale sbaglia?

Tra i temi che affrontiamo, e che potete approfondire ascoltando la puntata: come funziona nella pratica un algoritmo di raccomandazione, la differenza tra Echo Chamber ed Epistemic Bubble, i pro e i contro di un sistema disintermediato, le allucinazioni dei modelli di AI e gli accorgimenti operativi per ridurre il rischio di errori, le domande mal poste che rischiano di confermare i bias linguistici e gli accorgimenti per riformularle in modo corretto.

S. C.

 

Leggi anche: La SEO è morta per colpa dell’AI?

Ospite

Donald Ruggiero Lo Sardo

Scienziato della complessità nel team di Sony CSL – Rome, Donald Ruggiero Lo Sardo si occupa di Infosfera e sistemi sociali e vanta oltre 10 anni di esperienza nello studio delle reti e delle dinamiche collettive. Laureato in Fisica teorica alla Sapienza e dottore di Ricerca in Scienze della complessità all’Università di Medicina di Vienna, […]

Potrebbero interessarti

PODCAST

Cultura e Società

Chi risponde quando l’AI sbaglia? Dentro le redazioni, tra leggi europee e nuove pratiche

Ospite: Donald Ruggiero Lo Sardo

DISINFÒRMATI
con Sabrina Colandrea

PODCAST

Cultura e Società

Algoritmi social e democrazia: il caso Musk e la scatola nera di X

Ospite: Pietro Gravino

DISINFÒRMATI
con Sabrina Colandrea

PODCAST

Cultura e Società

Immigrazione e polarizzazione, il filtro che cambia lo sguardo

Ospite: Emanuele Brugnoli

DISINFÒRMATI
con Sabrina Colandrea

PODCAST

Cultura e Società

Fact-Checking VS Community Notes: quale via per limitare la disinformazione?

Ospite: Emanuele Brugnoli

DISINFÒRMATI
con Sabrina Colandrea

PODCAST

Cultura e Società

L’autodifesa digitale è possibile. Il nostro vademecum anti-bolla

DISINFÒRMATI
con Sabrina Colandrea

PODCAST

Apprendimento Automatico

Da spin-off di IBM a startup innovativa: la storia di Synthema AI

Ospite: Mattia Cabrele, Giulio Paci

SMASH
con Sabrina Colandrea