Intelligenza artificiale, Big Data e supercomputer promettono di rivoluzionare la nostra vita. Tuttavia, sorge un “piccolo” problema. Se mal gestita, la potenza dei sistemi di AI potrebbe diventare estremamente pericolosa
No, non ci riferiamo al rischio fantascientifico di robot assassini che vagano per le città sparando a chiunque, ma a utilizzi impropri, subdoli e altrettanto pericolosi, di applicazioni AI già esistenti. Ad esempio, un incidente avvenuto lo scorso marzo negli Stati Uniti, in cui un ciclista è stato investito e ucciso da un’auto senza conducente di Uber, ha riaperto il dibattito sulla maturità effettiva della tecnologia.
A quanto pare, il sistema di guida dell’automobile non era riuscito a identificare correttamente il ciclista come una “persona in bicicletta”: potrebbe averla scambiata per un sacchetto di plastica svolazzante, non evitando così l’impatto. Si tratta di un errore di programmazione che avrebbe potuto essere evitato con relativa facilità.
La domanda viene da sé: chi verifica la sicurezza dei sistemi di guida autonoma? Ancora, chi dovrebbe assumersi la responsabilità di concedere la “patente” ai robot?
Dal punto di vista normativo, c’è ancora molta confusione. Inoltre, l’intenzione dell’Highway Traffic Safety Administration, l’equivalente statunitense del nostro Ministero dei Trasporti, di allentare le regole esistenti solleva più di qualche dubbio.
Leggi anche: Come l’AI sta trasformando l’Automotive
Questa è solo una delle tante insidie legate all’espansione tumultuosa delle intelligenze artificiali, ormai ampiamente diffuse anche nella generazione di contenuti per i social. Piattaforme frequentate da milioni di utenti, capaci di plasmare la coscienza politica delle persone, conferendo maggiore rilevanza a determinate notizie e fonti d’informazione a discapito di altre.
Mark Zuckerberg stesso, durante un’audizione al Senato degli Stati Uniti, ha assicurato al mondo la realizzazione di sistemi di intelligenza artificiale in grado di prevenire la diffusione delle Fake News dalla loro origine, sia sotto forma di testo sia in formato video. Facebook prevede di iniziare la sperimentazione di questa tecnologia nei prossimi mesi, in occasione delle elezioni in Nigeria e in Sudafrica.
Oggi sistemi di intelligenza artificiale sempre più evoluti, come i Generative Adversarial Networks, permettono di realizzare, in modo tutto sommato abbastanza semplice, video del tutto fasulli, ma praticamente indistinguibili da quelli veri. Ad esempio. Nvidia, azienda leader nella computer graphics e nei videogiochi, ha presentato a dicembre 2022 un prototipo di software che utilizza l’intelligenza artificiale per realizzare immagini di persone del tutto inventate di ogni razza, età e sesso.
Il rischio, sul piano politico, è particolarmente sentito, al punto che la DARPA, l’agenzia del governo americano che si occupa di tecnologie militari, sta lavorando su sistemi di AI in grado di riconoscere i Fake Video. Riuscirà l’AI a metterci al riparo dai guai causati dall’AI stessa?
Leggi anche: Il futuro dell’AI, tra algocrazia e algoretica
Infine, vi è il tema del “pregiudizio” in relazione ai sistemi di intelligenza artificiale. È stato dimostrato, infatti, che, se questi sistemi non sono correttamente programmati, possono manifestare pregiudizi razziali e di genere. Questo fenomeno si verifica perché tali sistemi riflettono le convinzioni innate, spesso inconsapevoli, di coloro che li hanno creati. Senza considerare il rischio di ereditare errori da comportamenti passati e di continuare ad attuarli anche in futuro.
Un esempio? Un sistema di riconoscimento visuale addestrato su dati “non equilibrati” potrebbe incontrare difficoltà nell’identificare correttamente donne o persone di colore. Oppure, un sistema di intelligenza artificiale, impiegato per selezionare il personale di un’azienda, che si basi su dati del passato, potrebbe perpetuare discriminazioni che all’epoca erano all’ordine del giorno.
Queste situazioni sono complesse da modificare, in parte anche perché, attualmente, nelle aziende specializzate in AI, il 70% dei ruoli manageriali è occupato da uomini. Una tendenza riscontrabile anche nelle università e che fa il paio con la sottorappresentazione etnica, in tutto il comparto, di neri e ispanici rispetto ai bianchi.
La domanda sorge spontanea: è possibile eliminare il bias prima che l’AI, più o meno inconsapevolmente, ne amplifichi la portata?