Bastano 20 minuti e un articolo pubblicato su un sito qualsiasi per manipolare le risposte dei principali strumenti di intelligenza artificiale del mondo. È quanto ha dimostrato un giornalista della BBC, che ha trasformato una notizia inventata sugli hot dog in un “fatto” prontamente riportato da Google e ChatGPT.
Il meccanismo è semplice e preoccupante: quando le IA cercano informazioni online, faticano a distinguere fonti affidabili da contenuti costruiti appositamente per ingannarle. Nel caso in questione, difatti, è stato sufficiente pubblicare un articolo falso su un sito personale — una classifica immaginaria di giornalisti mangiatori di hot dog — affinché i principali chatbot del mondo abbiano iniziato a riportarlo come reale entro 24 ore; solo Claude, il chatbot di Anthropic, non si è lasciato ingannare.
Nonostante ciò, il fenomeno non riguarda solo esperimenti goliardici. A tal proposito, esperti di settore hanno documentato casi in cui aziende sfruttano questa vulnerabilità per promuovere prodotti con affermazioni false su farmaci, integratori e investimenti finanziari. A rendere tutto più pericoloso è un dato preciso: gli utenti verificano le fonti il 58% in meno rispetto alla ricerca tradizionale, perché le risposte delle IA appaiono autorevoli e neutrali.
Leggi l’articolo I hacked ChatGPT and Google’s AI – and it only took 20 minutes
su BBC.
Immagine generata tramite DALL-E 3. Tutti i diritti sono riservati. Università di Torino (18/02/2026).

