Le sfide del Diritto nell’era dell’intelligenza artificiale: sorveglianza, privacy e protezione dei dati personali in una giornata di studi all’Università la Sapienza
“Riconosciamo che l’intelligenza artificiale, in quanto tecnologia abilitante, ha uno straordinario potenziale per trasformare ogni aspetto degli affari militari, ma solleva anche sfide e preoccupazioni. Sfrutteremo i vantaggi e le opportunità dell’AI affrontando adeguatamente i rischi. In quest’ottica, ci impegniamo a sviluppare, implementare e utilizzare le capacità dell’intelligenza artificiale in ambito militare in modo responsabile, in conformità con il diritto internazionale, in particolare il diritto internazionale umanitario“.
Con questa dichiarazione di intenti, cosiddetta “di Parigi”, approvata da 28 Stati, tra cui anche l’Italia, si sono conclusi il 12 febbraio scorso i lavori dell’AI Action Summit 2025, il terzo vertice mondiale sull’intelligenza artificiale, organizzato dal governo francese e sostenuto dalle Nazioni Unite.
L’impegno a garantire un’applicazione responsabile dell’AI in ambito militare, a non autorizzare che qualsiasi decisione di vita o di morte sia presa da un sistema d’arma autonomo che operi completamente al di fuori del controllo umano, però, non è stato sottoscritto da Francia, Ucraina, Israele, Iran, Russia, Turchia, Stati Uniti, vale a dire proprio da quelle nazioni che attualmente hanno un maggiore peso specifico nelle odierne controversie internazionali. Ma tant’è.

A partire da questa constatazione, all’indomani della “dichiarazione di Parigi” si è svolta una giornata di studi all’interno della Facoltà di Scienze Politiche dell’Università la Sapienza di Roma organizzata dal Dottorato di Ricerca in Diritto pubblico, comparato e internazionale, dal titolo “Le sfide del diritto nell’era dell’intelligenza artificiale“. Queste sono state le principali tematiche affrontate: l’impatto dell’AI sul mercato e la concorrenza, la sicurezza pubblica e la giustizia, con particolare attenzione alla protezione dei dati e alla risoluzione delle controversie internazionali.
Ascolta anche Emergency: la Data Protection è il nostro faro anche nei contesti di guerra
Il Prof. Gianpaolo Maria Ruotolo, ordinario di Diritto dell’UE e Diritto internazionale all’Università di Foggia, che ha presieduto il panel in cui si sono stati maggiormente evidenziati i rischi delle nuove tecnologie in riferimento al rispetto delle libertà fondamentali degli individui, ha invitato, tuttavia, a evitare atteggiamenti di aprioristica demonizzazione degli strumenti tecnologici; riconoscendo, d’altra parte, che un loro uso spregiudicato potrebbe esporre le persone a gravi rischi per ciò che riguarda l’esercizio dei diritti.
E, in effetti, gli esempi in tal senso apportati dai ricercatori non sono mancati. C’è chi, come Elisabetta Belardo, si è soffermata sulla sentenza della Corte europea dei diritti dell’uomo del 4 luglio 2023, relativa al caso Glukhin c. Russia, che ha dato ragione a un cittadino russo che era stato arrestato dalle autorità, nel corso di una manifestazione pacifica, in seguito a un riconoscimento facciale.
In quel caso – ha ricordato Belardo – i giudici hanno stabilito che “il trattamento dei dati personali del ricorrente, effettuato tramite strumenti di riconoscimento facciale, non può essere ritenuto necessario nel contesto di una società democratica“. Non solo. La stessa Corte europea ha scritto nella sentenza che “i sistemi di riconoscimento facciale risultano lesivi anche del diritto alla libertà di espressione del ricorrente e, di conseguenza, del tutto incompatibili con i valori essenziali di una società democratica”.
E c’è chi, come Valentina Chabert, si è soffermata sull’uso delle armi autonome nei contesti di guerra; secondo la definizione data da Human Rights Watch “quelle armi che hanno la capacità di selezionare e attaccare gli obiettivi senza l’intervento umano”. In ogni caso, sul rispetto dei diritti fondamentali, sulla prevenzione dei meccanismi di sorveglianza di massa e sulla protezione dei dati personali, il richiamo alla responsabilità è stato unanime nelle aule della Facoltà di Scienze Politiche.
Leggi anche: A Cartography of Genocide. L’analisi scientifica di Forensic Architecture sul conflitto a Gaza
Intanto, una buona notizia per i cultori del diritto, è l’entrata in vigore, a partire dal 2 febbraio, anche in Italia, dell’AI Act, cioè del regolamento europeo sull’intelligenza artificiale. Con l’occasione si istituisce un quadro giuridico uniforme, all’interno del mercato interno europeo, che disciplinerà l’intera filiera: lo sviluppo, l’immissione sul mercato, la messa in servizio e l’uso di sistemi di intelligenza artificiale.
Ciò significa l’introduzione di regole che vietano le tecniche subliminali, manipolative e ingannevoli che riducono la capacità delle persone di prendere una decisione informata; le tecniche di classificazione delle persone sulla base del loro comportamento sociale; le tecniche di profilazione come il riconoscimento facciale e la raccolta dei dati biometrici.
Tuttavia, sono previste delle eccezioni per le attività di contrasto al crimine, se autorizzate dall’autorità giudiziaria. In tutti i casi – come ha notato Il Sole 24 Ore qualche giorno fa – “l’AI Act rischia di tramutarsi, come in parte è stato per il GDPR, in una direttiva mascherata, per l’altissimo numero di clausole aperte che attribuiscono un significativo margine di manovra agli Stati.”
Gaetano De Monte
Leggi anche: Dal caso Miano all’inchiesta della procura di Milano. Cosa sappiamo sul furto dei dati