Intervista all’avvocato Filippo Bianchini, al Founder & CEO di Neural Research Francesco Carlino, a Marco Iacobelli, Success Manager di Fuoricittà Srl, e alla direttrice delle Relazioni istituzionali di IBM Italia, Alessandra Santacroce
In questo episodio di Talk About IT, il nostro podcast in collaborazione con la sezione IT di Unindustria, Marco Borgherese dialoga intorno a un argomento di importanza crescente e che di recente ha suscitato parecchio clamore: i rischi legati allo sviluppo incontrollato dell’intelligenza artificiale e le sfide che questo sviluppo pone. Noi di Radio Activa Plus abbiamo già trattato l’argomento, concentrandoci soprattutto su un’AI specifica: ChatGPT, e abbiamo provato a osservare la questione da diversi punti di vista.
Ad arricchire questa platea di contenuti, non potevamo che contattare alcune tra le personalità più informate in materia di AI in Italia. Infatti, per l’occasione, abbiamo invitato come ospiti: l’avvocato Filippo Bianchini che segue l’evoluzione dei fenomeni legati alle nuove tecnologie, con particolare attenzione a legaltech, intelligenza artificiale e blockchain; il Founder & CEO di Neural Research, Francesco Carlino; il Success Manager di Fuoricittà Srl, Marco Iacobelli, che guida progetti digitali che fanno largo uso di modelli di AI, e Alessandra Santacroce, direttrice delle Relazioni istituzionali di IBM Italia, funzione dedicata alla promozione del valore dell’Innovazione nelle politiche italiane ed europee.
Vediamo insieme se è davvero necessario fermare l’intelligenza artificiale.
Ascolta il nostro podcast: Digital Fake. Verità e finzione nella comunicazione via mobile
Superintelligenza e AI incontrollata: rischi e conseguenze
Negli ultimi anni, l’intelligenza artificiale ha fatto passi da gigante, aprendo nuove frontiere nella tecnologia e cambiando radicalmente molti aspetti della nostra vita. Tuttavia, con questo rapido sviluppo, sorgono anche preoccupazioni legate a un possibile futuro in cui l’AI superi l’intelligenza umana, dando vita a una “superintelligenza”.
Immaginiamo infatti un mondo in cui le macchine possono pensare e ragionare a un livello superiore a quello umano. Mentre alcuni sostenitori vedono questa possibilità come una pietra miliare nel progresso tecnologico, molti esperti sono preoccupati per le conseguenze che potrebbero derivare da un tale sviluppo. Una superintelligenza artificiale potrebbe superare l’umanità in termini di capacità cognitive e decisionali, mettendo in discussione il nostro ruolo dominante nel mondo?
La parola al Founder & CEO di Neural Research, Francesco Carlino.
“Sottolineo che sono stato sorpreso da tutti questi allarmismi. Personalmente penso che ci siano dei rischi, ma non connessi a idee di singolarità o ad altre problematiche care alla letteratura fantascientifica. Penso questo perché l’intelligenza artificiale è ora ancora lontana da quella umana. I rischi reali sono connessi al loro essere degli strumenti potenti. L’uso di algoritmi di intelligenza artificiale comincia a essere diffuso e il rischio che possano fare danni seri è reale, come per tutti gli strumenti se usati male. A volte, nell’analisi dei dati, si creano degli automatismi così spinti e distaccati da controlli e supervisioni che un rischio reale è assolutamente comprensibile. Ma io sono del parere che l’AI sia prima di tutto una grande occasione. Sarà l’elemento che salverà le nostre società. Questo perchè le nostre società sono diventate troppo complesse per essere gestite ‘manualmente’ da soli esseri umani.”
Una delle maggiori preoccupazioni riguarda poi la sicurezza informatica. Con un’intelligenza superiore, un’AI potrebbe essere in grado di violare i sistemi di sicurezza informatica più avanzati, compromettendo la privacy e mettendo a rischio i dati sensibili. Gli attacchi cibernetici avanzati potrebbero diventare molto più diffusi e dannosi, con conseguenze potenzialmente devastanti per individui, organizzazioni e intere nazioni.
Ascolta anche un’altra puntata di Talk About IT: Sovranità digitale, cosa manca per raggiungerla?
Oltre alle minacce alla sicurezza, l’abuso dei dati personali è un’altra preoccupazione significativa. L’AI si basa su una vasta quantità di dati per apprendere e prendere decisioni, ma se questi dati vengono utilizzati in modo malevolo o improprio, possono emergere problemi di privacy e discriminazione. L’utilizzo di modelli di intelligenza artificiale mal progettati può portare a risultati distorti e discriminatori, a causa dei bias nei dati di addestramento. Questo solleva importanti questioni etiche riguardo all’equità e all’uguaglianza nell’utilizzo dell’AI.
L’avvocato Filippo Bianchini ci mette in guardia proprio su un uso non normato dell’AI.
“Il GDPR si è preoccupato di normare decisioni completamente automatizzate perché abbiamo già avuto utilizzi giuridici di AI che sono andati male e bisogna stare attenti. Il riferimento valoriale può essere scivoloso e in tema etico non c’è assoluta concordanza. Non è per nulla di facile risoluzione la regolamentazione di principi etici di alto livello. Anche i principi etici presentano problemi di natura valoriale e dobbiamo prendere atto di una forte discordanza di opinioni. Pensiamo al famoso dilemma del carrello e pensiamo al nostro stesso sistema valoriale europeo.”
Chi si erge a decidere quale etica sia giusta? Interviene Marco Iacobelli, Success Manager di Fuoricittà Srl.
“Forse bisognerebbe pensare all’intelligenza artificiale come a uno strumento che aiuta l’uomo e non pensare che sostituirà gli sviluppatori o altri professionisti, ma che andrà a supportarli e loro stessi saranno migliori.”
Sull’intelligenza artificiale, ascolta anche: Media Engineering, la PMI che unisce intelligenza artificiale e ologrammi
Superintelligenza e AI incontrollata: etica e opportunità
Per affrontare queste sfide, è essenziale anche un approccio etico nell’implementazione e nello sviluppo dell’AI. Gli esperti di sicurezza informatica devono lavorare per sviluppare sistemi di difesa avanzati in grado di proteggerci dagli attacchi informatici sempre più sofisticati. Allo stesso modo, i ricercatori e gli sviluppatori devono considerare attentamente le implicazioni etiche delle loro creazioni, garantendo l’equità, la trasparenza e l’accountability.
Non tutto nero però. Infatti, nonostante le potenziali minacce, l’intelligenza artificiale offre anche numerose opportunità. Di questa “luce” oltre tutti i dubbi ci parla la direttrice delle Relazioni istituzionali di IBM Italia, Alessandra Santacroce.
“È fondamentale trovare un equilibrio tra l’ottimizzazione delle opportunità offerte dall’AI e la gestione dei rischi ad essa associati. IBM non ha firmato il blocco per l’AI che ha portato avanti il Future of Life Institute. Noi non riteniamo, infatti, che fermare l’AI sia la mossa giusta da fare; invece, pensiamo che continuare a investire nella Ricerca e continuare a usare e implementare correttivi, sia regolatori che etici, sia la strada migliore. Puntiamo sull’etica multidisciplinare per trovare un equilibrio tra possibilità d’Innovazione e tutela dei diritti. Credo, infatti, che noi aziende abbiamo un ruolo importante per questo tipo di approccio etico. Abbiamo puntato su un sistema di governance e stiamo sviluppando un piano di formazione delle competenze. Non dimentichiamo che questa nuova tecnologia, sviluppata, però, da diversi anni, consente di portare enormi benefici. Per fare qualche esempio: nella Sanità, la ricerca di nuovi farmaci; poi, l’ottimizzazione dei processi produttivi e, ancora, l’ottimizzazione della comunicazione tra cittadino e PA.”
In conclusione, possiamo dire che l’AI rappresenta davvero una tecnologia straordinaria con il potenziale per trasformare il nostro mondo. Tuttavia, è essenziale affrontare con serietà le sfide legate alla sicurezza informatica, all’etica e alle conseguenze di una possibile superintelligenza artificiale.
Solo con un’impostazione consapevole dell’AI possiamo garantire che questa tecnologia rimanga un mezzo per il progresso, la prosperità e il benessere umano.
Vi lasciamo con una provocazione, prima di farvi skippare, e se vi dicessimo che quest’intervista è stata scritta “a due cervelli”, insieme a ChatGPT?
Non vi resta che ascoltare e trarre le vostre conclusioni sull’argomento.
F. P.