Grok, Musk e il timore delle intelligenze sovrumane: l’analisi del Data Protection Officer di Edenred Italia e Board Member del Think Tank Humint Consulting, Matteo Sironi
Altro appuntamento presso il nostro famigerato bancone virtuale del bar di A little privacy, please!, la serie podcast che si propone di parlare di Data Protection in modo semplice, acuto e perché no, anche ironico. In questa puntata un duetto a colpi di GDPR e AI Act con il nostro speaker, Sergio Aracu – Founder di Area Legale, giurista d’impresa, Business Privacy Lawyer, Privacy Consultant e Data Protection Officer – e un ospite speciale: Matteo Sironi, Data Protection Officer di Edenred Italia e Board Member del Think Tank Humint Consulting.
Tutto parte da una domanda fondamentale: se scrutiamo l’orizzonte tempestoso delle AI generative, spesso considerate il grande spauracchio di una macchina già più intelligente di noi, quante delle nostre paure sono davvero fondate? Il podcast inizia da qui.
Ascolta anche: Dall’AI all’avvento dell’AGI, quale futuro per il mondo del lavoro?
AI: cos’è successo negli ultimi mesi? Il punto di vista di Sironi
Negli ultimi mesi si sono susseguiti tanti avvenimenti nel mondo dell’AI, molti accavallati tra loro. Facciamo ordine. Prima è stata pubblicata una lettera firmata da Elon Musk e migliaia di altre menti illuminate, con la richiesta di uno stop allo sviluppo delle intelligenze artificiali. In particolare, si faceva riferimento a ChatGPT 4, sottolineando la necessità di comprendere la governance dietro i sistemi di AI e di trovare soluzioni tecniche per proteggere le persone.
La lettera ha ottenuto grande risalto, ma, dopo una moratoria di sei mesi, a settembre, ecco un’inversione di rotta nelle politiche sulla privacy del nuovo capo di Twitter (ora X), Musk, che, parafrasando, ma non troppo, si è espresso così: “Ora ti chiediamo tutti i tuoi dati e metadati per addestrare la nostra AI, associando la tua figura pubblica a quella social”. Più che un giro di frittata.
Accelerazione. A novembre viene annunciata Grok, un’AI che ha richiesto il massimo sforzo degli sviluppatori nell’arco di appena due mesi di training. La preoccupazione è palpabile a questo punto e possiamo solo sperare, come afferma il nostro ospite “che non abbiano utilizzato dati precedenti senza il nostro consenso”.
Leggi anche: AI e cybercrime, le aziende italiane sottovalutano i rischi del deep fake
Grok, un’AI generativa molto particolare
Descritta da Musk in maniera suggestiva, questa AI aspira a essere l’eco della famosa “guida galattica per gli autostoppisti”, in grado, quindi, di fornire risposte in modo ironico, divertente, acuto e, talvolta, ribelle.
Sironi ci invita a riflettere sulla corsa sfrenata verso nuove AI, sottolineando come alcuni attori potrebbero non aver chiarito appieno le regole del gioco. L’AI Act, concepito per la protezione delle persone, potrebbe essere in realtà solo un abbaglio, servendo principalmente alla competitività di un settore e aggiungendo poco o nulla al GDPR.
In conclusione, mentre ci immergiamo nel mondo incerto delle intelligenze artificiali, la voce di Matteo Sironi ci offre uno sguardo critico sulla situazione attuale, suggerendo che forse è giunto il momento di stabilire regole più chiare prima di cedere troppo terreno all’irrefrenabile avanzata di nuovi ChatGPT.
Ascolta anche: La privacy non è neutra