Al Parlamento Europeo la prima regolamentazione al mondo pensata per supervisionare l’intelligenza artificiale. Spicca il divieto totale di utilizzo delle tecnologie di riconoscimento biometrico a intelligenza artificiale in tempo reale nei luoghi pubblici
L’Eurocamera ha recentemente approvato il testo dell’AI Act, la prima regolamentazione al mondo pensata per regolare l’intelligenza artificiale e garantire il rispetto delle leggi UE e dei suoi valori fondamentali. L’obiettivo principale di questa iniziativa è combattere la discriminazione digitale, prevenire la diffusione di disinformazione e limitare l’utilizzo dei deep-fake. Tra le nuove regole adottate, spicca “il divieto totale di utilizzo delle tecnologie di riconoscimento biometrico a intelligenza artificiale in tempo reale nei luoghi pubblici”.
Esploriamo insieme le principali disposizioni del AI Act e il loro impatto sul panorama di questa tecnologia.
Leggi anche: L’amore ai tempi dei chatbot
AI Act: la normativa
L’AI Act è stato approvato con un ampio consenso all’aula di Strasburgo, registrando 499 voti a favore, 28 contrari e 93 astensioni. Questa regolamentazione pionieristica mira a garantire che tecnologie come ChatGPT & Co. rispettino le leggi dell’Unione Europea e i suoi valori fondamentali. Primo fra tutti la tutela dell’individuo a 360°.
Leggi anche: Rosanna Ramos sposa un uomo creato dall’intelligenza artificiale
AI Act e discriminazione digitale
Una delle principali preoccupazioni affrontate dall’AI Act è la discriminazione digitale, che può manifestarsi attraverso l’utilizzo improprio della stessa AI. Pertanto, sono state adottate misure decisive per prevenire l’abuso di queste tecnologie.
Tra le disposizioni più significative del AI Act si trova il divieto assoluto di utilizzo delle tecnologie di riconoscimento biometrico a intelligenza artificiale in tempo reale nei luoghi pubblici. Questa restrizione è stata introdotta per tutelare la privacy delle persone e garantire che il riconoscimento facciale non venga utilizzato in modo invasivo.
Parallelamente, è importante notare che l’emendamento che avrebbe consentito l’uso di telecamere con riconoscimento facciale per motivi di sicurezza nazionale o nei casi di minori scomparsi, è stato bocciato. Una mossa quanto mai chiara a sostegno della privacy prima di ogni altra cosa. Scommettiamo che questo punto creerà polemiche tra i consolidati team dell’opinione pubblica internazionale: il gruppo più controllo e meno libertà e quello della libertà senza condizioni.
Ancora a tema AI: Media Engineering, la PMI che unisce intelligenza artificiale e ologrammi
AI Act e livelli di rischio
Le norme stabilite dall’AI Act si basano su un approccio fondato sul rischio. Sono stati, infatti, identificati non solo i diversi livelli di rischio che possono essere generati dai sistemi di AI, ma anche i fornitori e gli operatori di tali sistemi che sono soggetti a obblighi specifici a seconda del livello di rischio associato. Sono stati vietati i sistemi di AI che “presentano un livello di rischio inaccettabile per la sicurezza delle persone, come quelli utilizzati per il punteggio sociale o la classificazione delle persone in base a caratteristiche personali”.
Oltre ai divieti precedentemente menzionati, i deputati hanno ampliato l’elenco delle restrizioni per includere l’uso intrusivo e discriminatorio dell’AI. Ciò comprende “l’utilizzo di sistemi di identificazione biometrica remota in tempo reale e a posteriori negli spazi pubblici accessibili, nonché l’utilizzo di sistemi di categorizzazione biometrica basati su caratteristiche sensibili come genere, razza, etnia, cittadinanza, religione e orientamento politico”.
Altri divieti riguardano “i sistemi di polizia predittiva, i sistemi di riconoscimento delle emozioni utilizzati dalle forze dell’ordine, la gestione delle frontiere, il luogo di lavoro e gli istituti d’istruzione”. Inoltre, è stata vietata “l’estrazione non mirata di dati biometrici da Internet o da filmati di telecamere a circuito chiuso per creare database di riconoscimento facciale”.
L’AI Act include anche nuove classificazioni di sistemi ad alto rischio. Oltre ai sistemi che possono causare danni significativi alla salute, sicurezza, diritti fondamentali delle persone o all’ambiente, sono stati aggiunti “i sistemi utilizzati per influenzare gli elettori e l’esito delle elezioni, nonché i sistemi di raccomandazione utilizzati dalle piattaforme di social media con un numero significativo di utenti”.
Sembra che gli organi deputati alla nostra tutela si siano davvero resi conto delle potenzialità di questa tecnologia in vista di presenti e future elezioni. La certezza è che questa regolamentazione dovrà stare allerta e pronta a tempestive modifiche, di pari passo con la velocità di sviluppo dell’AI stessa.
Leggi anche: ChatGPT, il 41% degli italiani pensa che sarà un supporto al lavoro
AI Act e ChatGPT
Per quanto riguarda i sistemi di AI generativa, come ChatGPT, il testo del AI Act richiede trasparenza nel “dichiarare che il contenuto è stato generato da un’intelligenza artificiale”. Questa misura è finalizzata specialmente a distinguere le immagini deep-fake da quelle reali e a fornire salvaguardie per evitare la creazione di contenuti illegali. Inoltre, è “prevista la pubblicazione delle sintesi dettagliate dei dati protetti dal diritto d’autore utilizzati per l’addestramento”.
Ascolta il nostro podcast: Governance delle tecnologie, sfide e possibili soluzioni
AI Act e futuro della legislazione
Tirando le somme, possiamo affermare che l’approvazione dell’AI Act da parte del Parlamento Europeo rappresenta un passo significativo per la regolamentazione dell’intelligenza artificiale dell’Unione. Le nuove regole mirano esplicitamente, senza se e senza ma, a prevenire abusi e discriminazioni derivanti dall’uso improprio dell’AI, proteggendo così la privacy e i diritti fondamentali delle persone.
Ora il testo passa alla fase di dialogo con i Paesi membri e la Commissione UE, ma già adesso l’Europa si posiziona come leader globale nella definizione di regole e standard per l’AI, sfruttando certamente il potenziale di questa tecnologia, ma in modo etico e responsabile.
Ascolta il nostro podcast: I dati sono davvero neutri? Parliamo di Data Feminism