Un’inchiesta di IrpiMedia ha rivelato come il Garante della Privacy non riesca a notificare una multa da 20 milioni di euro per violazioni del GDPR a una società statunitense
Il Regolamento europeo sull’AI identifica, tra i diversi usi a rischio dell’intelligenza artificiale, anche i sistemi biometrici usati per scopi di polizia, come il riconoscimento facciale. L’AI Act demanda agli Stati membri, infatti, la scelta dell’autorità competente ad autorizzare l’utilizzo del riconoscimento biometrico, che quindi potrà essere un’autorità giudiziaria o un’autorità amministrativa indipendente.
In tal modo ogni Stato potrà individuare le modalità di utilizzo dei sistemi biometrici in relazione alla procedura di autorizzazione da seguire. Proprio questo sistema contiene diverse zone grigie, come ha rivelato una lunga inchiesta di IrpiMedia pubblicata qualche settimana fa.
Firmata dalla giornalista esperta di tecnologia e sorveglianza di Stato, Laura Carrer, l’inchiesta riporta il caso dell’azienda statunitense che è pioniera nel riconoscimento facciale, Clearview AI. Negli anni, la società con sede a New York ha offerto le proprie soluzioni ai servizi segreti e alle polizie di tutto il mondo, Europa e Italia comprese. Ma poi è accaduto qualcosa.
Leggi anche: Disinformazione, guerra ibrida e cybercrimini. L’allarme dei Servizi
I milioni di dati biometrici, raccolti in maniera indiscriminata e senza il consenso delle persone dall’azienda, sono finiti all’interno del suo database, scontrandosi così con quanto prevede il Regolamento sulla protezione dei dati personali dell’UE, ma anche con la disciplina prevista dal Garante italiano della Privacy. Proprio quest’ultimo, come ha raccontato IrpiMedia, da tre anni sta cercando di notificare all’azienda una multa da 20 milioni di euro, senza però riuscirci. Non soltanto.
Anche altri Paesi che fanno parte dell’UE, come Francia e Olanda, hanno sanzionato Clearview AI, ma dato che la società in questione non ha una sede a livello comunitario, si è limitata a uscire dal mercato, trattenendo comunque nei suoi archivi una quantità indiscriminata di dati e fotografie, senza peraltro che ciò costituisse un illecito. Ma c’è di più.
Il mercato delle tecnologie biometriche in tutta Europa è in ascesa. Oggi basta una piccola azienda, con pochi euro di investimento, per tracciare chiunque abbia pubblicato una sola foto sulla rete, e in questo modo vengono offerti ai consumatori nuovi e meno costosi sistemi di riconoscimento facciale.
Ma cosa sono nel dettaglio queste tecnologie?
Leggi anche: Proteste Hi-Tech. L’Iran mette in campo il riconoscimento facciale
Negli ultimi 10 anni il riconoscimento facciale ha trovato il proprio ambito di applicazione nella prevenzione dei reati da parte delle forze di polizia. Oggi questa dimensione si è allargata, comprendendo non solo gli aspetti legati alla sicurezza, ma anche gli ambiti più disparati, come rileva il loro uso massiccio anche nei parchi privati e nei centri commerciali, per esempio.
Il suo utilizzo è, in particolare, contestato dalle organizzazioni che si occupano di diritti umani, sia rispetto alla protezione dei dati personali, sia riguardo ai pregiudizi di natura razziale che ne deriverebbero. Come ha spiegato Agenda Digitale: “A proposito del riconoscimento facciale 3D, esso si ottiene attraverso una tecnica chiamata ‘lidar’, che è simile al sonar usato in campo marittimo. In sostanza, i dispositivi di scansione del viso come l’iPhone proiettano una sorta di impulso laser; questo impulso si riflette poi sul viso e viene ripreso da una fotocamera IR presente nel dispositivo“.
Questo è uno tra i tipi di riconoscimento più precisi e avanzati, che riduce le possibilità di errori e di individuare dei falsi positivi.
Ma cosa resta della tutela dei diritti umani e della protezione dei dati personali?
Gaetano De Monte
Ascolta anche Emergency: la Data Protection è il nostro faro anche nei contesti di guerra