Dall’apprendimento umano al Machine Learning: cosa distingue davvero il linguaggio dell’intelligenza artificiale? Ne parliamo con Azzurra Mancini e Valentina Russo, le due Co-Founder di Logogramma
C’era una volta un mondo in cui il linguaggio era un’esclusiva dell’essere umano. Parole, simboli, significati: tutto passava attraverso l’esperienza, la cultura, l’intuito. Poi è arrivata l’intelligenza artificiale. E oggi quella barriera tra umano e macchina si sta assottigliando a una velocità sorprendente.
Le macchine possono davvero comprendere il linguaggio?
Il linguaggio è sempre stato una questione complessa, un territorio di scontro tra logica e creatività, tra convenzione e significato intrinseco. Da Platone fino alla Gen AI, l’uomo si è interrogato sul senso delle parole e sul loro potere. Ma oggi questa domanda si ripropone in una veste nuova: che succede se a usare il linguaggio non è più solo l’uomo? Che cosa significa per una macchina “comprendere” davvero?
Per rispondere a queste domande, siamo andati dritti alla fonte, intervistando Azzurra Mancini e Valentina Russo, co-fondatrici di Logogramma Srl, startup innovativa con sede a Napoli che lavora all’intersezione tra intelligenza artificiale, elaborazione del linguaggio e Machine Learning. Nel loro percorso tra Ricerca e Innovazione, Mancini e Russo stanno affrontando le grandi domande che definiscono il futuro della comunicazione artificiale. E il risultato è un viaggio affascinante nelle profondità della linguistica computazionale.
Ascolta anche: Donne, STEM e il genio interrotto
“Tradurre non è solo trasporre parole da una lingua all’altra“, spiegano le due fondatrici della startup. “Significa capire la cultura, le intenzioni, le sfumature emotive. Ed è qui che le AI faticano“. Nel 2016, per esempio, Google Translate aveva fatto un balzo in avanti grazie all’AI neurale, migliorando il contesto delle frasi. Ma ironia, sarcasmo e sottotesto restano ancora un terreno scivoloso per le macchine.
L’intelligenza artificiale non risponde in modo neutrale. Dietro ogni output c’è una serie di scelte invisibili: parole privilegiate, riferimenti culturali predominanti, schemi ripetuti.
Niccolò Monti, nel suo libro “Prompting – Poetiche e politiche dell’intelligenza artificiale” (Tlon Edizioni), riflette su un punto cruciale: l’AI non produce risposte dal nulla, ma si nutre del modo in cui le domande vengono poste. Il linguaggio dell’intelligenza artificiale è, in fondo, uno specchio del nostro linguaggio.
Possiamo addestrare un modello a rispondere con fluidità a qualsiasi domanda, ma ciò non significa che abbia sviluppato una comprensione reale del linguaggio. La vera sfida per l’intelligenza artificiale non è solo migliorare la grammatica o la coerenza delle risposte, ma affrontare il livello pragmatico della comunicazione.
E qui torniamo alla domanda iniziale: una macchina può davvero capire il significato delle parole?
Scopri di più ascoltando l’intervista completa nel podcast Smash di Radio Activa Plus, disponibile su Spotify e tutte le principali piattaforme!
T. S. V.
Ascolta anche: Cosa differenzia Vitruvian-1 dagli altri Large Language Model?