Gli hacker stanno sperimentando sempre di più gli LLM per perfezionare grammatica, tono e localizzazione dei testi, rendendoli praticamente indistinguibili da una comunicazione autentica
Il 9 ottobre è la Giornata mondiale della Posta. Dalla sua istituzione ai giorni nostri, è uno strumento che si è sempre adattato agli sviluppi tecnologici. Oggi, infatti, quando parliamo di posta, pensiamo soprattutto a quella elettronica. Ed è proprio qui che si gioca una delle sfide più rilevanti in materia di cybersecurity.
Secondo il Data Breach Investigations Report 2025, un rapporto internazionale sulle violazioni informatiche stilato da Verizon Business, la percentuale di messaggi di phishing scritti con l’ausilio dell’intelligenza artificiale è più che raddoppiata negli ultimi due anni.
Verizon, società con sede negli Stati Uniti, si occupa di tutelare i propri clienti rispetto alle loro esigenze in termini di mobilità, connettività affidabile di rete e sicurezza. Per questo la società ha lanciato l’allarme sul fatto che oggi il phishing ha cambiato pelle, diventando sempre meno riconoscibile e, come tale, sempre più pericoloso. Le email sono scritte in modo ineccepibile, con un tono aziendale impeccabile, senza refusi. Dicono da Verizon: “a rendere il phishing più credibile è l’intelligenza artificiale generativa, ormai sempre più utilizzata anche dai criminali informatici”.
Leggi anche: Gli ultimi dati sui cyberattacchi e le startup italiane della lotta al crimine informatico
In questo senso, la crescente capacità dell’AI generativa di produrre testi sempre più simili al linguaggio umano, curati nel lessico e nella terminologia settoriale, la rende uno strumento perfetto per simulare email il cui mittente appare un’organizzazione autorevole.
Così gli hacker stanno sperimentando sempre di più i Large Language Model per perfezionare grammatica, tono e localizzazione dei testi, adattandoli al contesto culturale e linguistico delle vittime e rendendoli praticamente indistinguibili da una comunicazione autentica.
Proprio questa verosimiglianza rende i messaggi ingannevoli più difficili da individuare, aumentando il rischio che utenti inconsapevoli cedano dati sensibili, credenziali di accesso o informazioni riservate convinti di interagire con una autorità.
Leggi anche: Cybersecurity, il phishing sta per compiere 30 anni
Tuttavia, i rischi da cui mette in guardia il report di Verizon non riguardano solo gli attori esterni, cioè gli attacchi degli hacker. Secondo le cifre rese note dalla società, infatti, è in crescita anche l’esposizione involontaria di dati aziendali causata dall’utilizzo poco consapevole di strumenti di intelligenza artificiale da parte dei dipendenti.
“Ogni interazione tra applicazioni che integrano l’AI e contenuti aziendali può rappresentare un punto di ingresso per violazioni o fughe di informazioni“, si legge ancora nel rapporto.
A preoccupare maggiormente, è il fatto che il 15% dei lavoratori accede regolarmente a piattaforme di AI generativa dai dispositivi aziendali, spesso attraverso account personali non autorizzati. Non solo: tra i fattori di rischio, c’è anche l’integrazione dell’intelligenza artificiale nei sistemi operativi mobili, lì dove aspetti personali e dati aziendali convivono. Questi nuovi automatismi, infatti, creano rischi di violazioni e possibili fughe di informazioni.
Leggi anche: La cultura della protezione dei dati nelle attività del Garante della Privacy