News Provider, piattaforme e giornali al banco degli imputati: tra DSA, AI Act e strumenti generativi, la fiducia nell’informazione si costruisce (ancora) a mano
Cosa succede quando i contenuti passano attraverso algoritmi di raccomandazione, modelli linguistici e workflow redazionali ibridi? In questo episodio di Disinfòrmati, il nostro podcast sull’Infosfera, in collaborazione con Sony Computer Science Laboratories – Rome, proviamo a capire dove finiscono le responsabilità legali e cominciano quelle editoriali.
La giurisprudenza italiana dice che autore e testata giornalistica rispondono di ciò che pubblicano, mentre i provider di hosting rispondono quando sanno di un contenuto illecito e non intervengono con la dovuta diligenza. Fuori dall’aula, però, il gioco si complica: l’AI è ormai entrata nel flusso di lavoro delle redazioni, piattaforme e creator parlano direttamente al pubblico e i nostri feed sono regolati da sistemi opachi.
E in Europa? Il Digital Services Act chiede trasparenza su raccomandazioni e pubblicità. L’AI Act introduce obblighi di etichettatura dei contenuti sintetici, tracciabilità degli usi, verifica della liceità delle fonti e dei dataset. Un dovere che tocca da vicino autori, piattaforme, creator… insomma, chiunque produca o diffonda contenuti.
Nel frattempo, però, l’intelligenza artificiale è entrata dalla porta principale nelle testate giornalistiche. Basti come esempio il caso del Foglio AI, l’inserto quotidiano interamente prodotto con strumenti di AI generativa. Un mese di esperimento, discussioni infuocate e un bilancio finale firmato dal direttore in dialogo con il chatbot.
Ascolta anche: Immigrazione e polarizzazione, il filtro che cambia lo sguardo
Nel tentativo di arginare questa rivoluzione, l’Ordine dei Giornalisti ha fissato alcuni paletti in una ricerca pubblicata a febbraio 2025 insieme all’Università LUMSA. La fotografia che emerge dallo studio è ambivalente: da un lato l’AI è percepita come sinonimo di efficienza e Innovazione, dall’altro emergono profondi dubbi sulla trasparenza e sulla qualità dell’informazione prodotta con il supporto della tecnologia.
In questo episodio, in compagnia di Donald Ruggiero Lo Sardo, scienziato della complessità del team di Sony CSL – Rome, proviamo a leggere l’Infosfera rispondendo a due domande: quanto possiamo fidarci di un’informazione prodotta o filtrata dall’AI? E chi risponde quando l’intelligenza artificiale sbaglia?
Tra i temi che affrontiamo, e che potete approfondire ascoltando la puntata: come funziona nella pratica un algoritmo di raccomandazione, la differenza tra Echo Chamber ed Epistemic Bubble, i pro e i contro di un sistema disintermediato, le allucinazioni dei modelli di AI e gli accorgimenti operativi per ridurre il rischio di errori, le domande mal poste che rischiano di confermare i bias linguistici e gli accorgimenti per riformularle in modo corretto.
S. C.
Leggi anche: La SEO è morta per colpa dell’AI?