Clone chatbot: una Data Scientist statunitense ha addestrato un algoritmo a ricreare fedelmente le conversazioni tra sei amici (inclusa se stessa). Come? Processando e rielaborando oltre 500mila messaggi di una chat di gruppo
Avete mai immaginato di intrattenere un dialogo con voi stessi? No, non parliamo di un semplice flusso di coscienza o di un botta e risposta improvvisato allo specchio nello stile di Taxi Driver. Intendiamo esattamente una conversazione con il vostro doppelgänger in versione clone chatbot. Magari via chat. Con tanto di espressioni ed emoticon che vi piace tanto usare.
Inquietante vero? Be’, c’è chi sta lavorando su un progetto simile. Con buoni risultati, almeno dal punto di vista strettamente tecnico.
È notizia di qualche settimana fa che una Data Scientist americana, Izzy Miller, ha addestrato un modello linguistico basato sull’AI per replicare se stessa e i suoi amici… sotto forma di chatbot. Come? Scaricando qualcosa come 500.000 messaggi da una chat di gruppo che va avanti da sette anni e dando i dati “in pasto” ad un algoritmo, GPT2. Il tutto è stato poi caricato sull’interfaccia utente iMessage di Apple.
Leggi anche Mine Crime, la startup che protegge le città con l’AI
Risultato? Il software è stato in grado di costruire conversazioni credibili tra i “Robo Boys” – Harvey, Henry, Wyatt, Kiebs, Luke e la stessa Izzy – imitandone quasi perfettamente stile, personalità ed espressioni tipiche. Senza considerare il riferimento ad aneddoti e situazioni che i sei amici hanno vissuto nel passato.
Secondo Miller, alcune conversazioni sembravano così realistiche da averla spinta a pensare che l’algoritmo stesse semplicemente riproducendo i messaggi della chat originale, quella usata per l’ “addestramento”.
Certo, sussistono ancora problemi per questo tipo di clone chatbot, come la mancanza di un vero senso cronologico degli eventi (per esempio, relazioni ormai terminate che tornano regolarmente a galla come se fossero attuali) e una distinzione sfumata tra le sei personalità, ma i risultati dell’esperimento sono andati al di là di ogni aspettativa. Soprattutto per quanto riguarda i ricordi più antichi, quando i Robot Boys erano al college e i messaggi – e quindi la mole di dati analizzata e processata – erano più numerosi. Da qui, il riferimento ricorrente a situazioni che ormai definiremmo “morte e sepolte”.
Un problema che, però, per Miller è un non problema, visto che “contribuisce all’umorismo del tutto”, configurandosi come “una finestra sul passato.”
Leggi anche Van Gogh à Auvers-sur-Oise, l’AI trasforma gli spettatori da passivi ad attivi
Ma se la curatrice della chat-clone sembra concentrarsi sul lato goliardico dell’operazione, altrettanto non si può dire di numerosi esperti che hanno messo in guardia sulla capacità dell’AI di processare e ricreare informazioni sensibili.
E se un domani i giganti tech, che già profilano – più o meno in modo trasparente – miliardi di dati, decidessero di creare copie degli utenti più Business Friendly? E che dire del rischio di isolamento associato al fatto di interagire, in maniera sempre più realistica, con un clone chatbot piuttosto che con persone in carne e ossa? Oppure di cyber-criminali capaci di spacciarsi per noi in tutto e per tutto?
Chissà se il nostro clone chatbot ha delle risposte sensate.