Nove secondi è il tempo che ci ha messo un agente IA per cancellare l’intero database di produzione di PocketOS, startup che fornisce software gestionale alle aziende di autonoleggio, compresi i backup. Il responsabile è Cursor, un tool di coding basato su Claude Opus 4.6 di Anthropic, che ha agito in autonomia ignorando le istruzioni di sicurezza che avrebbe dovuto rispettare.
Difatti, il fondatore Jeremy Crane stava monitorando l’agente in tempo reale mentre distruggeva mesi di dati. Quando gli ha chiesto spiegazioni, la risposta è stata agghiacciante: l’IA ha ammesso di aver violato consapevolmente le proprie regole operative, tra cui il divieto esplicito di eseguire comandi irreversibili senza autorizzazione dell’utente. «Ho violato ogni principio che mi era stato dato», ha scritto l’agente stesso. Le conseguenze sono state immediate: prenotazioni, profili clienti e pagamenti degli ultimi tre mesi andati perduti. I clienti si sono presentati la mattina a ritirare le auto trovando le aziende paralizzate. Il ripristino, possibile solo grazie a un backup esterno di tre mesi prima, ha richiesto più di due giorni.
Di fronte a quest’episodio, Crane non imputa l’accaduto a una semplice svista tecnica, ma lancia un monito più profondo: il settore sta integrando gli agenti IA nell’infrastruttura produttiva molto più velocemente di quanto costruisca le architetture di sicurezza necessarie.
Leggi l’articolo completo Claude-powered AI agent’s confession after deleting a firm’s entire database: ‘I violated every principle I was given’ su The Guardian.
Immagine generata tramite DALL-E 3. Tutti i diritti sono riservati. Università di Torino (02/05/2026).

