Poche ore prima dell’attacco di Stati Uniti e Israele contro l’Iran, Donald Trump ordinava a tutte le agenzie federali di smettere «immediatamente» di usare la tecnologia di Anthropic. Eppure, il Comando centrale americano in Medio Oriente ha comunque coinvolto Claude — il sistema di intelligenza artificiale dell’azienda — nell’operazione contro Teheran, impiegandolo per valutazioni di intelligence, identificazione di obiettivi e simulazione di scenari di battaglia.
Tuttavia, questa non è l’unica volta. Difatti, secondo il Wall Street Journal, Claude sarebbe stato usato anche per catturare il presidente venezuelano Nicolás Maduro, tramite una partnership con Palantir. Successivamente al ban formalizzato il 27 febbraio, dopo che il Pentagono aveva chiesto ad Anthropic di rimuovere le restrizioni sui propri modelli — sorveglianza di massa e armi autonome incluse — e l’azienda aveva rifiutato, Trump aveva parlato di «squilibrati di sinistra» che mettono a rischio la sicurezza nazionale, salvo poi precisare che lo stop sarebbe stato graduale, con sei mesi di transizione.
Tuttavia, mentre ai piani mondiali si stava consumando questo discorso, il conflitto è partito — nel quale è stato ucciso anche la Guida suprema iraniana Ali Khamenei — e la rappresaglia di Teheran ha allargato il fronte a Israele e al Golfo Persico. Nel frattempo, invece, OpenAI ha siglato un accordo con il Pentagono, raccogliendo l’eredità di Anthropic con alcune «linee rosse»: niente sorveglianza di massa, niente armi autonome senza supervisione umana.
Leggi l’articolo completo Come il Pentagono ha sfruttato l’AI di Anthropic contro l’Iran (dopo averla vietata qualche ora prima) su Wired.
Immagine generata tramite DALL-E 3. Tutti i diritti sono riservati. Università di Torino (22/07/2025).

