La sorveglianza di massa tramite intelligenza artificiale ha aperto una frattura tra il Pentagono e le grandi aziende tech. Anthropic ha rifiutato l’uso militare del suo software Claude e si è ritrovata etichettata come rischio per la sicurezza nazionale. OpenAI ha scelto la strada opposta, accettando un accordo per ogni uso legale, scatenando proteste e boicottaggi tra gli utenti. L’ azienda ha poi corretto il contratto per escludere il controllo diretto dei civili ma non è ancora chiaro come queste regole verranno davvero applicate dai militari nelle loro attività.
Il problema è però strutturale. Le leggi vigenti sono state scritte prima che i dati digitali diventassero la materia prima di qualsiasi sistema di controllo. Il governo può comprare legalmente posizioni telefoniche, abitudini di navigazione, pattern di spostamento senza passare da un giudice. L’AI assembla questi frammenti e restituisce profili individuali. Poiché queste informazioni circolano liberamente sul mercato, le norme sulla privacy faticano anche solo a inquadrare il fenomeno, figurarsi a limitarlo.
Le autoregolamentazioni aziendali reggono fino al primo conflitto serio con Washington. Quando il Pentagono ritiene un’operazione di sorveglianza necessaria, le società tecnologiche hanno margini stretti per opporsi e spesso non lo fanno. Alcuni politici americani spingono per vietare l’acquisto statale di dati da broker privati, ma la proposta resta in stallo. Finché non arriva una legge che fissa limiti precisi, la privacy dei cittadini dipende da contratti che le stesse aziende private possono rinegoziare a seconda della convenienza e della pressione politica.
Leggi l’articolo completo “Is the Pentagon allowed to surveil Americans with AI?” su MIT Technology Review.
Immagine generata tramite DALL-E 3. Tutti i diritti sono riservati. Università di Torino (03/06/2025).

