OpenAI VS Anthropic e l’accordo per l’uso dell’AI a scopi militari. Come stanno davvero le cose

Negli USA le disinstallazioni di ChatGPT sono aumentate del 295% al giorno dopo l’annuncio di un accordo tra OpenAI e il Dipartimento della Difesa. In parallelo, sono raddoppiate le installazioni di Claude di Anthropic, che, però, siede di nuovo al tavolo delle trattative

 

 

La prima settimana di marzo 2026 ha visto una forte reazione degli utenti rispetto all’annuncio di un accordo tra OpenAI e il Department of Defense (DoD) statunitense, in base al quale l’azienda tech fornirà tecnologie di intelligenza artificiale per ambiti legati alla sicurezza nazionale.

I dati di mercato raccolti da Sensor Tower hanno mostrato un incremento significativo delle disinstallazioni di ChatGPT, con picchi giornalieri molto superiori alla media storica. La società ha registrato oltre 700mila cancellazioni dell’abbonamento al giorno. Nello stesso periodo, le installazioni dell’app concorrente Claude, sviluppata da Anthropic, hanno registrato un aumento netto.

Secondo le metriche pubblicate da Sensor Tower, le principali variazioni, osservate nell’arco di pochi giorni, sono state le seguenti:

  • le disinstallazioni di ChatGPT negli Stati Uniti sono cresciute del 295% rispetto alla media giornaliera precedente;
  • le installazioni di Claude sono aumentate di circa il 37% (venerdì 27 febbraio) e del 51% (sabato 28 febbraio);
  • l’app sviluppata da Anthropic ha superato ChatGPT in classifica negli app store americani.

 

Il dibattito pubblico ha ampiamente collegato le oscillazioni alla reazione degli utenti all’intesa annunciata da OpenAI. Infatti, i consumatori sensibili alle implicazioni etiche dell’AI hanno reagito negativamente all’idea di un coinvolgimento militare diretto, traducendo la protesta in disinstallazioni o recensioni negative. Altri utenti si sono rivolti alla concorrenza come forma simbolica di dissenso o per una maggiore fiducia nei confronti di Anthropic.

Nei giorni scorsi, l’AD di OpenAI, Sam Altman, è intervenuto su X per chiarire alcuni punti legati alla comunicazione dell’accordo con il DoD.

 

 

Altman ha ammesso che la notizia è stata pubblicata “in modo affrettato” e ha sottolineato che la relazione con il Dipartimento della Difesa comprende garanzie specifiche sul non utilizzo dei sistemi per la sorveglianza interna di cittadini statunitensi. OpenAI ha precisato che l’accordo con il DoD riguarda strumenti per casi d’uso legati alla sicurezza nazionale, come analisi dati, supporto decisionale o simulazioni, e che non implica necessariamente un’estensione automatica delle tecnologie in ambiti offensivi o di sorveglianza automatizzata.

Salvo poi ammettere, come riportato in un articolo del Guardian, che, una volta firmati i contratti, non è possibile evitare completamente che i sistemi vengano utilizzati a scopi militari.

Dal canto suo, Anthropic, fondata tra gli altri da Dario Amodei, ha storicamente adottato una posizione pubblica più cauta sull’integrazione dei propri modelli in contesti militari. La società ha enfatizzato la tutela dei dati degli utenti e una visione prudente sugli impieghi dell’AI in ambiti ad alto rischio etico. Tale posizionamento ha favorito l’aura di affidabilità di Anthropic agli occhi dei consumatori e ha verosimilmente contribuito alla crescita delle installazioni osservata negli ultimi giorni.

Nel caso specifico, però, l’accordo tra il Dipartimento della Difesa USA e OpenAI nasce proprio a seguito di un’intesa saltata con Anthropic per il rifiuto di precise condizioni.

Il punto di scontro ha riguardato soprattutto la richiesta del Pentagono di utilizzare il modello Claude “per tutti gli scopi legali”, senza limitazioni tecniche. Poiché Anthropic ha rifiutato di rimuovere alcune salvaguardie, che impediscono l’uso dei suoi modelli per scopi quali la sorveglianza di massa interna e le armi autonome letali, le trattative con il governo si sono interrotte. Questo ha aperto la strada all’accordo con OpenAI.

In un primo momento, il governo USA ha reagito duramente alla posizione di Anthropic, con il DoD che ha minacciato la procedura per classificare l’azienda come “supply-chain risk”. Una misura che può comportare l’esclusione dai contratti federali e che è normalmente utilizzata per fornitori considerati un rischio per la sicurezza nazionale. Il fatto che potesse essere applicata a una società tecnologica statunitense dà la misura del livello di tensione tra Industria AI e governo.

È notizia delle ultime ore che l’AD di Anthropic starebbe tentando un ultimo negoziato con il Dipartimento della Difesa degli Stati Uniti per raggiungere un accordo sull’accesso dell’esercito ai modelli di AI sviluppati dell’azienda.

Inoltre, va detto che Anthropic non è del tutto estranea a operazioni militari. Una versione di Claude era già integrata in Project Maven, un sistema utilizzato per analizzare grandi quantità di dati e supportare decisioni operative.

Il conflitto tra OpenAI e Anthropic, quindi, non è una semplice opposizione pro-militare VS anti-militare, piuttosto è una disputa sulle condizioni di utilizzo dell’intelligenza artificiale in certi contesti.

Le grandi aziende tech stanno diventando fornitrici strategiche della Difesa, che ci piaccia o no, e stanno competendo per stipulare questo genere di contratti. Il dibattito etico si concentrerà sempre più su quali limiti imporre all’uso militare dell’AI, ma è un fatto che le collaborazioni sono già avviate.

Gli utenti, però, hanno dimostrato che la reputazione di un prodotto tecnologico oggi è un fattore competitivo tanto quanto la sua qualità, e che coerenza, fiducia e credibilità sono aspetti cruciali per dominare il mercato.

Potrebbero interessarti

PODCAST

Intelligenza artificiale

RAP x IntelligentIA: il podcast che racconta l’AI a 360° in occasione dell’evento più atteso in Italia

RAP X IntelligentIA
con Sabrina Colandrea, T. Sharon Vani

PODCAST

Cultura e Società

“Il mondo corre più veloce delle competenze”: il punto di vista di TIM Academy

Ospite: Francesca Funaro

WOW - WOMEN ON WEB
con Federica Meta, Francesca Pucci

PODCAST

Cultura e Società

Golden Hour: un’ora preziosa per parlare di lavoro in evoluzione

Ospite: Laura Vitelli

GOLDEN HOUR
con Silvia Masciulli

PODCAST

Big Data

Il trattamento dei dati tra necessità di trasparenza, intelligibilità e accessibilità

Ospite: Luca Bolognini, Giorgio Trono

A LITTLE PRIVACY, PLEASE!
con Sergio Aracu, Laura Liguori

PODCAST

Cultura e Società

Sul Rage Bait, ovvero del perché i contenuti che ci fanno arrabbiare dominano l’infosfera

Ospite: Donald Ruggiero Lo Sardo

DISINFÒRMATI
con Sabrina Colandrea

PODCAST

Cultura e Società

Golden HouR, dialoghi informali sul lavoro che cambia

Ospite: Luciana De Laurentiis, Claudio Allievi, Alessandra Cravetto

GOLDEN HOUR
con Silvia Masciulli