Il caso della fotografia della Civil Rights Attorney modificata dalla Casa Bianca e il confine sempre più sottile tra informazione, manipolazione visiva e propaganda
Quando ciò che vediamo sui social ci appare credibile, se non avvertiamo attriti o incoerenze, smettiamo di interrogarci. Ma è proprio su questa soglia, sempre più sottile, che oggi si gioca una parte decisiva del rapporto tra tecnologia, informazione e potere.
Nei giorni scorsi, la Casa Bianca ha diffuso sui propri canali social un’immagine che ritraeva una Civil Rights Attorney arrestata durante una protesta. Nel fotogramma il volto della donna appariva visibilmente provato e rigato dalle lacrime, un dettaglio capace di orientare emotivamente la lettura dell’evento. Peccato che sia stato dimostrato che quell’espressione non era presente nell’immagine originale.
La fotografia era stata modificata. Non in modo caricaturale, com’era accaduto con l’immagine ghiblizzata di una donna fermata dall’ICE, né con effetti dichiaratamente artificiali, come nel surreale video sul futuro di Gaza, ma attraverso un intervento mirato a rendere credibile una reazione emotiva inesistente. Il tutto senza nessuna indicazione e, quindi, trasparenza sull’avvenuta alterazione. Anzi, l’immagine è stata lasciata circolare come se fosse una rappresentazione fedele dei fatti fino alla richiesta di smentita.
La questione non è banale: un’istituzione che si dichiara democratica ha scelto di intervenire sulla realtà visiva per orientare la percezione pubblica di un evento, rendendo la manipolazione indistinguibile dalla realtà.
Non è la prima volta che la comunicazione politica utilizza immagini alterate, ma, in passato, l’utilizzo di strumenti di AI o di programmi di fotoritocco era quasi ostentato, tra filtri, meme ed effetto cartoon. Stavolta è accaduto qualcosa di diverso: le modifiche sono state progettate per non farsi notare e per convincere di una “realtà” altra.
Leggi anche: Se devo dimostrare di essere viva, allora qualcosa si è rotto davvero
Quando la tecnologia consente di modificare immagini autentiche senza lasciare tracce visibili, il problema smette di essere tecnico e diventa democratico. La fiducia nelle istituzioni si fonda anche su un patto implicito: ciò che viene mostrato come documento visivo di un evento deve corrispondere a ciò che è accaduto realmente. Se quel patto si incrina, non basta più sapere che esistono i deepfake, ma occorre chiedersi chi li utilizza, in quali contesti e con quale grado di legittimazione.
Altrimenti si rischia di normalizzare una comunicazione in cui la realtà diventa modellabile, adattata alla narrazione più efficace. Una pratica che fa leva sugli strumenti dell’AI e del digitale senza dichiararsi per ciò che è, sfruttando l’autorevolezza dell’istituzione che la diffonde per rafforzarne la credibilità.
In questo contesto, le soluzioni tecniche offrono solo risposte parziali. Etichette, watermark e sistemi di tracciamento possono contribuire a rendere più trasparenti i contenuti, ma lasciano aperta la questione centrale: la responsabilità di chi comunica esercitando un’autorità pubblica. Il punto è che non è accettabile un intervento istituzionale sulla rappresentazione dei fatti, specialmente considerando che serve a rafforzare una narrazione politica senza essere dichiarato come tale.
L’episodio della Casa Bianca segnala un passaggio di fase. Oggi la tecnologia consente interventi puntuali sulla realtà visiva, sufficientemente raffinati da conservarne lo statuto di prova, pur alterandone il significato.
La domanda, a questo punto, non è se l’AI verrà usata ancora nella comunicazione istituzionale. La vera questione è quali limiti siamo disposti a considerare non negoziabili, prima che la distinzione tra informazione e costruzione narrativa diventi, di fatto, opzionale.
Di seguito riporto il reel del giornalista Francesco Oggiano che mi ha dato lo spunto per la stesura di questo articolo.
Ascolta anche: Disinfòrmati, il podcast che esplora le mutazioni dell’Infosfera






