Quali logiche si celano dietro i Large Language Model? Cosa rende unico Vitruvian-1 rispetto a LLM più noti? La parola a Samuel Algherini, docente di Intelligenza artificiale applicata al linguaggio, e Nicola Grandis, CEO della startup ASC27, che ha sviluppato il modello italiano
Torna A little privacy, please!, la serie podcast attraverso la quale approfondiamo in modo rigoroso, ma al contempo accattivante, temi di attualità tratti dal vasto mondo della Data Protection.
In particolare, in questo episodio il nostro speaker Sergio Aracu, Founder di Area Legale, giurista d’impresa, Business Privacy Lawyer, Privacy Consultant e Data Protection Officer, ospita due veri esperti in materia di intelligenza artificiale. Infatti, Samuel Algherini insegna Intelligenza artificiale applicata al linguaggio per l’Università Roma Tre, è Responsible AI Trainer, nonché Of Counsel di Area Legale, mentre Nicola Grandis è il CEO di ASC27, startup innovativa negli ambiti intelligenza artificiale e cybersecurity, che di recente ha sviluppato il modello Vitruvian-1.
Ad Algherini il compito di spiegare a vantaggio degli ascoltatori di Radio Activa Plus cosa si intende con Large Language Model e su quali logiche si basano gli LLM con cui ci ritroviamo ad avere a che fare sempre di più nella vita di tutti i giorni. “Un LLM è un modello di linguaggio di grandi dimensioni”, esordisce il nostro ospite. Poi continua:
“Sono modelli che hanno visto tantissimo testo, sequenze di dati. Nel nostro caso ci interessano in modo particolare le sequenze testuali, ma anche le immagini e i suoni sono dati. Avvengono delle computazioni in questi modelli per andare a predire la sequenza di dati successiva da portare fuori in output. Gli LLM che utilizziamo – soprattutto il classico ChatGPT, che ormai da due anni e mezzo ha spopolato tra le masse – hanno ‘memorizzato’ certi pattern linguistici per poi andarli a riprodurre, fare computazioni per predire la parola successiva e comporre dei testi sensati che sembrano prodotti da dei geni. Ogni tanto non funzionano benissimo, ma nella maggioranza dei casi possono portare soluzioni, testi, strutture dati molto coerenti che ci aiutano nella vita di tutti i giorni.”
Ascolta anche: Cosa è successo davvero tra il Garante della Privacy e DeepSeek?
Quanto a Vitruvian-1, primo LLM sviluppato interamente in Italia, sul sito di riferimento si legge che non è un chatbot, ma “a problem solver for real world businesses“. Grandis, padre del modello, conferma che quello del LLM non è l’unico mestiere di Vitruvian-1 e lo descrive come “compatto, progettato per il business”. Poi aggiunge:
“Se gli chiedessimo chi era Giuseppe Garibaldi, potrebbe anche dirci una cavolata perché nel business le informazioni factual sono poco utili, quindi le abbiamo eliminate. Vitruvian-1 è un’opera ingegneristica. Abbiamo utilizzato modelli allenati da grandi aziende, che hanno investito miliardi di euro per eseguire un allenamento sul linguaggio, ma in realtà lo abbiamo dotato di superpoteri che lo rendono molto logico, molto utile a impieghi, per esempio, nella Sanità, nella manifattura, nel controllo delle macchine. In questo senso non si limita a processare linguaggio e a produrre linguaggio.”
Partendo da una base già esistente, quindi, Vitruvian-1 si differenzia dagli altri LLM presenti sul mercato innanzitutto per la compattezza, aspetto che lo rende utilizzabile per aziende e PA e che sblocca la capacità di allenare modelli per singole aziende, per casi particolari, aprendo così alla possibilità, per esempio, di far diventare il modello, attraverso un allenamento ad hoc, “il medico di famiglia elettronico più bravo d’Italia”.
Per approfondire ulteriormente le caratteristiche di Vitruvian-1, trovate qui la scheda tecnica.
All’interno del podcast si affronta, tra gli altri, anche un tema cruciale: la Shadow AI, minaccia informatica che si concretizza quando i dipendenti, ma anche i manager di un’azienda, spinti dalla necessità di ottimizzare il proprio lavoro, o di risolvere specifici problemi, ricorrono a soluzioni di intelligenza artificiale senza aver prima coinvolto i reparti IT.
Per saperne di più e per scoprire in che modo ASC27 si assicura che il modello Vitruvian-1 venga usato in modo responsabile, non vi resta che cliccare su play!
S. C.
Ascolta anche: Perché la nuova policy di Facebook non apre a scenari disastrosi