Al via la terza edizione di “Talk to the Future Week”. Nella prima giornata di incontri promossi dalla Camera Penale di Milano è intervenuto anche il Ministro della Giustizia, Carlo Nordio
“Non è più tempo per domandarsi se accettare, o meno, l’intelligenza artificiale. È il momento di dotarci di strumenti di garanzia che ne regolino l’utilizzo, nel pieno rispetto dei diritti fondamentali“. Con queste parole l’Avv. Mario Scialla ha aperto il 19 maggio nella città meneghina i lavori della Talk to the Future Week, incontro organizzato dall’Ordine degli Avvocati di Milano, e con il patrocinio di OCF, l’Organismo Congressuale Forense.
Secondo Scialla, però, è anche essenziale affermare il principio dello “Human in the Loop“, il quale impone la presenza attiva e consapevole dell’essere umano in ogni processo decisionale automatizzato che incide sui diritti delle persone. “Il GDPR già riconosce il diritto a non essere sottoposti a decisioni unicamente automatizzate, ma l’efficacia di questa previsione è limitata. Serve un quadro più solido“, ha ribadito il coordinatore di OCF.
È senza dubbio un fatto, ad esempio, che l’AI Act elaborato dall’Unione Europea vada in questa direzione, sancendo una nuova forma di responsabilità e rafforzando l’idea dell’autodeterminazione umana. Proprio per questo, “dato che l’AI sarà sempre più presente in ambiti della vita collettiva, deve essere trattata come una norma soggetta ai principi dello Stato di diritto, al controllo democratico, alla coerenza con l’ordinamento“, ha aggiunto Scialla.
L’evento di Milano, fortemente voluto dal presidente degli Avvocati meneghini, Antonino La Lumia, si chiuderà il 23 maggio. Sono attesi oltre 60 relatori esperti di intelligenza artificiale che si alterneranno in 14 incontri suddivisi in cinque giorni. Alla giornata inaugurale ha preso parte anche il Ministro della Giustizia, Carlo Nordio.
“Si tratta di uno strumento” – ha detto Nordio riferendosi all’AI – “che può e deve essere controllato dall’ingegno umano affinchè non si converta in nefandezza“. “L’intelligenza artificiale deve essere un supporto per l’avvocatura e la magistratura, per l’intero mondo della giustizia”, è ancora il Guardasigilli-pensiero.
Leggi anche: Cosa prevede il DDL del Governo Meloni sull’intelligenza artificiale
Infine, il Ministro ha ricordato il Disegno di Legge del Governo attualmente in discussione in Parlamento, che ha come focus fondamentale il rapporto tra giustizia, tecnologia e democrazia, auspicando che in tal modo “si possa trovare un equilibrio tra professionalità, garanzia dei diritti e difesa dei valori costituzionali“.
In tutti i casi, proprio in questi giorni alla Camera dei Deputati sono cominciate le prime votazioni degli emendamenti al Disegno di Legge già approvato in prima battuta al Senato e recante “disposizioni e deleghe al Governo in materia di intelligenza artificiale“. Come è noto, gli emendamenti depositati sono 389, tra cui 31 provengono da esponenti di Forza Italia interni alla maggioranza di Governo.
Gli stessi deputati di FI, proprio qualche giorno fa, hanno fatto filtrare la notizia che il Governo non avrebbe intenzione di modificare il testo, e così i loro emendamenti saranno ritirati in sede di votazione.
“In qualche modo – ha precisato il Sottosegretario alla Presidenza del Consiglio con delega all’informazione e all’editoria, Alberto Barachini, intervenendo il 20 maggio al Forum PA di Roma – “questo disegno di legge anticipa e fa un passo in avanti rispetto all’AI Act europeo perché intanto difende fermamente il copyright, principale preoccupazione del mondo dell’informazione rispetto all’utilizzo dell’intelligenza artificiale generativa, e poi introduce una fattispecie di reato nuova, quella del Deep Fake“, ha aggiunto Barachini.
Un po’ meno trionfante è, invece, la posizione espressa da Giuseppe Busia, Presidente dell’ANAC, l’Autorità Nazionale Anticorruzione, il quale, presentando ieri al Parlamento la relazione annuale dell’Autorità, ha avvertito del fatto che “ancora pochi nella pubblica amministrazione sono in grado di gestire adeguatamente l’intelligenza artificiale, con il rischio che alcune scelte riservate alla responsabilità pubblica finiscano per essere inconsapevolmente delegate a operatori privati“.
Gaetano De Monte
Leggi anche: Un bilancio della sesta edizione della Blockchain Rome 2025