Un recente studio rivela che un nuovo tipo di attacco alla supply chain sta emergendo a causa delle allucinazioni dei modelli linguistici di IA. Si chiama slopsquatting e sfrutta pacchetti software inesistenti generati erroneamente da strumenti come Copilot, ChatGPT e altri assistenti di codice basati su LLM. Gli aggressori intercettano questi nomi “immaginari” e li registrano, contando sul fatto che sviluppatori ignari li installino, affidandosi ciecamente all’output dell’IA.
La ricerca, condotta da un team dell’Università del Texas a San Antonio, del Virginia Tech e dell’Università dell’Oklahoma, ha analizzato 576.000 frammenti di codice generati da 16 LLM, rivelando che circa il 20% dei pacchetti suggeriti non esiste. Sembrerebbe, inoltre, che i modelli open source allucinino più frequentemente rispetto a quelli commerciali. In particolare, CodeLlama ha mostrato un tasso di errore molto alto. Diverso, invece, sembrerebbe essere la situazione per GPT-4 Turbo, che si è dimostrato più affidabile.
Siccome le allucinazioni non sono casuali e, spesso, si ripetono in modo coerente, possono risultare facile per gli aggressori da essere individuate e sfruttate. I nomi dei pacchetti sono spesso credibili e difficili da riconoscere come falsi. Inoltre, il cosiddetto “vibe coding” (lo sviluppo guidato dall’IA) espone gli utenti a un rischio maggiore, poiché riduce il controllo diretto sul codice prodotto.
Leggi l’articolo completo: The Rise of Slopsquatting: How AI Hallucinations Are Fueling a New Class of Supply Chain Attacks su socket.dev.
Immagine generata tramite DALL-E 3. Tutti i diritti sono riservati. Università di Torino (2025).

