TALK ABOUT IT

AI Insights, dobbiamo davvero fermare l’intelligenza artificiale?

Intervista all’avvocato Filippo Bianchini, al Founder & CEO di Neural Research Francesco Carlino, a Marco Iacobelli, Success Manager di Fuoricittà Srl, e alla direttrice delle Relazioni istituzionali di IBM Italia, Alessandra Santacroce

 

 

In questo episodio di Talk About IT, il nostro podcast in collaborazione con la sezione IT di Unindustria, Marco Borgherese dialoga intorno a un argomento di importanza crescente e che di recente ha suscitato parecchio clamore: i rischi legati allo sviluppo incontrollato dell’intelligenza artificiale e le sfide che questo sviluppo pone. Noi di Radio Activa Plus abbiamo già trattato l’argomento, concentrandoci soprattutto su un’AI specifica: ChatGPT, e abbiamo provato a osservare la questione da diversi punti di vista.

Ad arricchire questa platea di contenuti, non potevamo che contattare alcune tra le personalità più informate in materia di AI in Italia. Infatti, per l’occasione, abbiamo invitato come ospiti: l’avvocato Filippo Bianchini che segue l’evoluzione dei fenomeni legati alle nuove tecnologie, con particolare attenzione a legaltech, intelligenza artificiale e blockchain; il Founder & CEO di Neural Research, Francesco Carlino; il Success Manager di Fuoricittà Srl, Marco Iacobelli, che guida progetti digitali che fanno largo uso di modelli di AI, e Alessandra Santacroce, direttrice delle Relazioni istituzionali di IBM Italia, funzione dedicata alla promozione del valore dell’Innovazione nelle politiche italiane ed europee.

Vediamo insieme se è davvero necessario fermare l’intelligenza artificiale.

 

 

Ascolta il nostro podcast: Digital Fake. Verità e finzione nella comunicazione via mobile

 

 

Superintelligenza e AI incontrollata: rischi e conseguenze

Negli ultimi anni, l’intelligenza artificiale ha fatto passi da gigante, aprendo nuove frontiere nella tecnologia e cambiando radicalmente molti aspetti della nostra vita. Tuttavia, con questo rapido sviluppo, sorgono anche preoccupazioni legate a un possibile futuro in cui l’AI superi l’intelligenza umana, dando vita a una “superintelligenza”.

Immaginiamo infatti un mondo in cui le macchine possono pensare e ragionare a un livello superiore a quello umano. Mentre alcuni sostenitori vedono questa possibilità come una pietra miliare nel progresso tecnologico, molti esperti sono preoccupati per le conseguenze che potrebbero derivare da un tale sviluppo. Una superintelligenza artificiale potrebbe superare l’umanità in termini di capacità cognitive e decisionali, mettendo in discussione il nostro ruolo dominante nel mondo?

La parola al Founder & CEO di Neural Research, Francesco Carlino.

“Sottolineo che sono stato sorpreso da tutti questi allarmismi. Personalmente penso che ci siano dei rischi, ma non connessi a idee di singolarità o ad altre problematiche care alla letteratura fantascientifica. Penso questo perché l’intelligenza artificiale è ora ancora lontana da quella umana. I rischi reali sono connessi al loro essere degli strumenti potenti. L’uso di algoritmi di intelligenza artificiale comincia a essere diffuso e il rischio che possano fare danni seri è reale, come per tutti gli strumenti se usati male. A volte, nell’analisi dei dati, si creano degli automatismi così spinti e distaccati da controlli e supervisioni che un rischio reale è assolutamente comprensibile. Ma io sono del parere che l’AI sia prima di tutto una grande occasione. Sarà l’elemento che salverà le nostre società. Questo perchè le nostre società sono diventate troppo complesse per essere gestite ‘manualmente’ da soli esseri umani.”

Una delle maggiori preoccupazioni riguarda poi la sicurezza informatica. Con un’intelligenza superiore, un’AI potrebbe essere in grado di violare i sistemi di sicurezza informatica più avanzati, compromettendo la privacy e mettendo a rischio i dati sensibili. Gli attacchi cibernetici avanzati potrebbero diventare molto più diffusi e dannosi, con conseguenze potenzialmente devastanti per individui, organizzazioni e intere nazioni.

 

 

Ascolta anche un’altra puntata di Talk About IT: Sovranità digitale, cosa manca per raggiungerla?

 

 

Oltre alle minacce alla sicurezza, l’abuso dei dati personali è un’altra preoccupazione significativa. L’AI si basa su una vasta quantità di dati per apprendere e prendere decisioni, ma se questi dati vengono utilizzati in modo malevolo o improprio, possono emergere problemi di privacy e discriminazione. L’utilizzo di modelli di intelligenza artificiale mal progettati può portare a risultati distorti e discriminatori, a causa dei bias nei dati di addestramento. Questo solleva importanti questioni etiche riguardo all’equità e all’uguaglianza nell’utilizzo dell’AI.

L’avvocato Filippo Bianchini ci mette in guardia proprio su un uso non normato dell’AI.

Il GDPR si è preoccupato di normare decisioni completamente automatizzate perché abbiamo già avuto utilizzi giuridici di AI che sono andati male e bisogna stare attenti. Il riferimento valoriale può essere scivoloso e in tema etico non c’è assoluta concordanza. Non è per nulla di facile risoluzione la regolamentazione di principi etici di alto livello. Anche i principi etici presentano problemi di natura valoriale e dobbiamo prendere atto di una forte discordanza di opinioni. Pensiamo al famoso dilemma del carrello e pensiamo al nostro stesso sistema valoriale europeo.”

Chi si erge a decidere quale etica sia giusta? Interviene Marco Iacobelli, Success Manager di Fuoricittà Srl.

“Forse bisognerebbe pensare all’intelligenza artificiale come a uno strumento che aiuta l’uomo e non pensare che sostituirà gli sviluppatori o altri professionisti, ma che andrà a supportarli e loro stessi saranno migliori.”

 

 

Sull’intelligenza artificiale, ascolta anche: Media Engineering, la PMI che unisce intelligenza artificiale e ologrammi

 

 

Superintelligenza e AI incontrollata: etica e opportunità

Per affrontare queste sfide, è essenziale anche un approccio etico nell’implementazione e nello sviluppo dell’AI. Gli esperti di sicurezza informatica devono lavorare per sviluppare sistemi di difesa avanzati in grado di proteggerci dagli attacchi informatici sempre più sofisticati. Allo stesso modo, i ricercatori e gli sviluppatori devono considerare attentamente le implicazioni etiche delle loro creazioni, garantendo l’equità, la trasparenza e l’accountability.

Non tutto nero però. Infatti, nonostante le potenziali minacce, l’intelligenza artificiale offre anche numerose opportunità. Di questa “luce” oltre tutti i dubbi ci parla la direttrice delle Relazioni istituzionali di IBM Italia, Alessandra Santacroce.

“È fondamentale trovare un equilibrio tra l’ottimizzazione delle opportunità offerte dall’AI e la gestione dei rischi ad essa associati. IBM non ha firmato il blocco per l’AI che ha portato avanti il Future of Life Institute. Noi non riteniamo, infatti, che fermare l’AI sia la mossa giusta da fare; invece, pensiamo che continuare a investire nella Ricerca e continuare a usare e implementare correttivi, sia regolatori che etici, sia la strada migliore. Puntiamo sull’etica multidisciplinare per trovare un equilibrio tra possibilità d’Innovazione e tutela dei diritti. Credo, infatti, che noi aziende abbiamo un ruolo importante per questo tipo di approccio etico. Abbiamo puntato su un sistema di governance e stiamo sviluppando un piano di formazione delle competenze. Non dimentichiamo che questa nuova tecnologia, sviluppata, però, da diversi anni, consente di portare enormi benefici. Per fare qualche esempio: nella Sanità, la ricerca di nuovi farmaci; poi, l’ottimizzazione dei processi produttivi e, ancora, l’ottimizzazione della comunicazione tra cittadino e PA.”

In conclusione, possiamo dire che l’AI rappresenta davvero una tecnologia straordinaria con il potenziale per trasformare il nostro mondo. Tuttavia, è essenziale affrontare con serietà le sfide legate alla sicurezza informatica, all’etica e alle conseguenze di una possibile superintelligenza artificiale.

Solo con un’impostazione consapevole dell’AI possiamo garantire che questa tecnologia rimanga un mezzo per il progresso, la prosperità e il benessere umano.

Vi lasciamo con una provocazione, prima di farvi skippare, e se vi dicessimo che quest’intervista è stata scritta “a due cervelli”, insieme a ChatGPT?

Non vi resta che ascoltare e trarre le vostre conclusioni sull’argomento.

F. P.

Ospite

Alessandra Santacroce

Alessandra Santacroce dal 2008 è direttrice delle Relazioni Istituzionali di IBM Italia, funzione dedicata alla promozione del valore dell’innovazione nelle politiche italiane ed europee. La sua carriera professionale include esperienze nella Pubblica Amministrazione e in aziende multinazionali, dove ha maturato competenze in aree come le politiche del lavoro e la sanità e nella gestione e […]

Francesco Carlino

Francesco Carlino è CEO & Founder di Neural Research Srl, per cui dal 2018 ricopre anche il ruolo di direttore scientifico. Dopo la laurea con lode in Filosofia del Linguaggio conseguita nel 1995 all’Università “Tor Vergata” di Roma, ha frequentato il corso di specializzazione post-laurea in Psicologia cognitiva e reti neurali dell’Università La Sapienza di […]

Filippo Bianchini

L’avvocato Filippo Bianchini si è laureato in Giurisprudenza presso l’Università degli Studi di Perugia; nel 2006 ha fondato lo Studio Legale Bianchini e svolge attività principalmente nei settori: Data Protection & privacy, Diritto dell’IT e Diritto civile; si interessa, tra l’altro, di Computer Forensics e del contrasto ai fenomeni di cyberstalking e cyberbullismo. È un […]

Potrebbero interessarti

PODCAST

Perché revisionare sempre attentamente l'output dell'AI
Intelligenza artificiale

L’output dell’AI non è infallibile. L’importanza della revisione dei contenuti

Ospite: Gianluca Bergaminelli

A LITTLE PRIVACY, PLEASE!
con Marco Trombadore

PODCAST

AITEM: l'AI italiana che sta rivoluzionando la sanità e la produzione industriale
Health

AITEM: l’AI italiana che sta rivoluzionando Sanità e produzione industriale

Ospite: Massimiliano Melis

SMASH
con Francesca Ponchielli

PODCAST

cooperative digitali
Blockchain

Cooperative digitali: il futuro del mutualismo nell’era dell’AI e della blockchain

Ospite: Katia De Luca

WOW - WOMEN ON WEB
con Federica Meta, Francesca Pucci

PODCAST

Decisioni automatizzate sullo scoring: una questione di diritti
Governance tecnologica

Decisioni automatizzate sullo scoring: una questione di diritti

Ospite: Daniele Vagnarelli

LEGALTECH SHOW
con Silvano Lorusso, Nicolino Gentile

PODCAST

Pornhub e il Digital Service Act: nuove regole per la tutela online
Big Data

Gli impatti del Digital Services Act. Il caso Pornhub

Ospite: Fulvio Sarzana, Marco Scialdone

A LITTLE PRIVACY, PLEASE!
con Sergio Aracu, Marco Trombadore

PODCAST

Nell'ultimo decennio, la guida autonoma ha catturato l'immaginazione di milioni di persone in tutto il mondo. Un fenomeno che ha trascinato con sé promesse di maggiore sicurezza stradale, efficienza e comodità. Tuttavia, dietro questa innovazione che sembra appartenere a un futuro lontano, si cela un intricato labirinto di responsabilità legali e sfide normative che devono ancora essere affrontate e risolte. Il Professore Enrico Al Mureden, figura di spicco nel panorama giuridico e accademico italiano, ci accompagna in un viaggio attraverso i livelli della guida autonoma, svelando le complessità che circondano questo fenomeno. I Livelli della Guida Autonoma: Decifrando la Classificazione SAE Quando si parla di guida autonoma, ci si imbatte spesso nei livelli definiti dalla Society of Automotive Engineers (SAE). Questi livelli, che vanno dall'1 al 5 (con l'aggiunta del "Livello 0"), delineano il grado di automazione presente nei veicoli. Da automobili "storiche" che richiedono l'input completo del conducente (Livello 0) fino alla piena automazione senza necessità di intervento umano (Livello 5), il panorama è estremamente variegato. La Responsabilità Legale: Un Terreno Ancora Inesplorato Con l'avvento della guida autonoma, sorgono interrogativi cruciali riguardanti la responsabilità legale in caso di incidenti o malfunzionamenti dei sistemi autonomi. Chi è da ritenere responsabile in situazioni di emergenza? Il conducente? Il produttore del veicolo? O forse entrambi? Il quadro normativo attuale non offre ancora risposte esaustive a queste domande, lasciando un vuoto che deve essere colmato al più presto. Sebbene siano stati fatti passi avanti, come l'introduzione dell'articolo 34bis "Guida Autonoma", ci troviamo ancora di fronte a una fase di transizione e adattamento. L'Integrazione Tecnologica e Sociale: Una Sinergia Necessaria La guida autonoma non è solo una questione di tecnologia, ma anche di integrazione sociale e legale. È cruciale coinvolgere esperti non solo nel campo dell'ingegneria, ma anche della filosofia, sociologia e giurisprudenza per garantire un approccio olistico e sostenibile a questa rivoluzione. Il Futuro della Guida Autonoma: Oltre le Macchine Isolate È importante ricordare che la guida autonoma non esiste in un vuoto tecnologico, ma è parte integrante di un contesto più ampio. La collaborazione tra settori e la revisione delle normative sono fondamentali per garantire una transizione fluida verso un futuro in cui la guida autonoma sarà la norma piuttosto che l'eccezione. In conclusione, la guida autonoma rappresenta una delle sfide più affascinanti e complesse del nostro tempo. Tuttavia, affrontare queste sfide richiede non solo innovazione tecnologica, ma anche una profonda riflessione etica e legale. Solo integrando tutte queste componenti potremo realizzare pienamente il potenziale trasformativo della guida autonoma, garantendo nel contempo la sicurezza e la responsabilità per tutti gli attori coinvolti.
Governance tecnologica

Guida autonoma: tecnologia e responsabilità legale

Ospite: Enrico Al Mureden

LEGALTECH SHOW
con Silvano Lorusso, Nicolino Gentile