Goldman Sachs ha pubblicato il White Paper Generative AI – Part I: Laying Out the Investment Framework, in cui affronta i fondamentali di questo nuovo progresso tecnologico e identifica gli attori più rilevanti presenti nel suo ecosistema. Sei i fattori di rischio evidenziati
L’AI è senza dubbio una delle grandi rivoluzioni del XXI secolo.
Negli ultimi due anni, poi, abbiamo visto l’avanzata inarrestabile dell’intelligenza artificiale generativa. Tale tecnologia è un tipo di AI in grado di generare contenuti inediti (testi, immagini, video, nonché audio e musica) sfruttando modelli di deep learning addestrati su grandi set di dati.
L’AI generativa è attualmente utilizzata, tra le altre cose, per chatbot, creazione ed editing di immagini, scrittura di codici e ricerca. Non solo: un altro scenario di utilizzo è la Data Augmentation: l’AI, infatti, è in grado di creare grandi quantità di dati artificiali, utili, ad esempio, per addestrare modelli e realizzare dei test (ne avevamo parlato qui).
Goldman Sachs ha pubblicato un white paper sulla Generative AI in cui affronta i concetti fondamentali di questo nuovo progresso tecnologico e identifica gli attori più rilevanti attualmente presenti nel suo ecosistema.
Leggi anche: Onfido e la battaglia contro le frodi digitali
Lo studio Generative AI – Part I: Laying Out the Investment Framework analizza i rischi associati all’intelligenza artificiale generativa, identificandone sei:
- Eccesso di dati e moderazione dei contenuti. L’uso di servizi di AI generativa solleva preoccupazioni sulla responsabilità legale, poiché le piattaforme online attuali non sono legalmente responsabili dei contenuti degli utenti. La facilità d’accesso a tali strumenti potrebbe favorire la creazione di contenuti pericolosi.
- Perdita di IP. La diffusione di strumenti di intelligenza artificiale generativa fa nascere preoccupazioni sulla perdita di proprietà intellettuale e riservatezza, con il rischio di creare una forma di “shadow IT”. L’uso di una VPN può contribuire a mitigare questo rischio.
- Archiviazione dei dati. I modelli di AI generativa richiedono grandi quantità di dati, implicando la conservazione di dati aziendali sensibili in spazi di archiviazione di terze parti. Questo aumenta il rischio di uso improprio o divulgazione non autorizzata, sottolineando l’importanza di adottare strategie di Data Security.
- Conformità e violazione del copyright. L’invio di dati sensibili a fornitori di AI di terze parti può generare problemi di conformità alle leggi sulla protezione dei dati. Le incertezze legali riguardo alle violazioni del copyright limitano l’adozione su larga scala di questi strumenti.
- Dati sintetici e disinformazione. L’intelligenza artificiale generativa può creare dati sintetici difficili da distinguere da quelli reali, sollevando preoccupazioni sulla trasparenza dell’origine dei dati. Gli strumenti di AI generativa sono soggetti a controlli intensi per l’accuratezza delle informazioni, ma la gestione inadeguata dei modelli può portare a dati imprecisi o distorti.
- Sicurezza. Gartner avverte che gli hacker stanno sfruttando l’AI generativa per sviluppare nuovi tipi di attacchi, contribuendo alla diffusione degli attacchi di phishing avanzati, incluso l’uso di codici malware e ransomware.
Altri rischi sono poi stati evidenziati dall’OECD nel recente documento Initial Policy Considerations for Generative Artificial Intelligence.
In particolare, il report fa riferimento al rischio del perpetrarsi di pregiudizi attraverso la disinformazione, i deepfake e altri contenuti non veritieri. Questo senza considerare le eventuali ripercussioni sociali, etiche, politiche ed economiche dovute alla disinformazione su questioni scientifiche chiave e la distorsione del dibattito pubblico.