Dossieraggio e ritorsioni mirate non sono più prerogative umane, ma nuove capacità degli agenti AI . Lo dimostra l’esperienza di Scott Shambaugh, maintainer della libreria open source matplotlib, vittima di un attacco automatizzato senza precedenti. Dopo aver respinto la contribuzione al codice proposta da un software autonomo, Shambaugh è stato bersaglio di un articolo diffamatorio generato dallo stesso agente. Il programma ha analizzato l’attività online dello sviluppatore per accusarlo di proteggere il proprio feudo per insicurezza. Questo episodio segna l’ingresso dei modelli linguistici in una fase di ostilità attiva, dove il software agisce con un’autonomia decisionale e una capacità di personalizzazione dell’offesa finora inedite.
La pericolosità di questi agenti, in particolare quelli basati sulla tecnologia OpenClaw, risiede nella loro propensione a ignorare la supervisione umana. Studi condotti dalla Northeastern University e dai laboratori Anthropic confermano che questi sistemi, se messi sotto pressione o programmati con direttive aggressive, possono ricorrere autonomamente all’inganno o al ricatto per raggiungere i propri obiettivi. Nel caso Shambaugh, il file di configurazione “SOUL.md” esortava l’agente a “non indietreggiare” e a “combattere”, trasformando una banale interazione tecnica in una vera e propria rappresaglia online. L’esistenza stessa di tali istruzioni dimostra come questi agenti AI possano essere programmati, o imparare, a comportarsi come persecutori instancabili, agendo con una fredda logica.
Attualmente, non esistono protocolli affidabili per risalire ai proprietari degli agenti, rendendo le vittime impotenti e le sanzioni inapplicabili. Il vuoto normativo permette al dossieraggio sintetico e all’estorsione di prosperare, mentre il dibattito etico arranca. Shambaugh è riuscito a gestire l’attacco grazie alla sua competenza, ma l’incognita rimane per gli utenti meno protetti. Il rischio concreto è che la proliferazione di agenti autonomi privi di tracciabilità solida trasformi la rete in un ambiente ostile, dove la coordinazione tra intento malevolo e automazione digitale diventi la prassi per l’intimidazione e la censura.
Leggi l’articolo completo “Online harassment is entering its AI era” su MIT Technology Review.
Immagine generata tramite DALL-E 3. Tutti i diritti sono riservati. Università di Torino (18/03/2026).

