Abbonarsi a un chatbot e ritrovarsi con centinaia di dollari spariti dal conto è quello che è appena successo a diversi utenti di Claude, sviluppato da Anthropic. Il caso più documentato riguarda un americano della costa est che, convinto dal valore del servizio, pagava 20 dollari al mese. Un giorno sua moglie ha scoperto sull’estratto conto due addebiti da 200 dollari ciascuno, per l’acquisto di gift card mai richieste. Un terzo tentativo è stato bloccato solo perché richiedeva una conferma. In totale, 400 dollari sottratti senza che lui avesse fatto nulla.
Tuttavia, non si tratta di un caso isolato. Sul forum Reddit sono emerse decine di segnalazioni simili: chi ha trovato dieci addebiti da 18 sterline, chi tre da 216 euro, chi si è visto sottrarre 225 euro senza alcun preavviso. I pagamenti appaiono sull’estratto conto come effettuati ad Anthropic, e le vittime ricevono persino un’email con scritto «Hai ricevuto un regalo!», completa di link per riscattare l’abbonamento — inviata però all’indirizzo del titolare del conto compromesso.
Anthropic ha dichiarato di stare rafforzando le misure di sicurezza e di rimborsare gli importi fraudolenti, pur precisando che non ci sono prove che i dati delle carte siano stati sottratti dai propri sistemi. Chi si trova in questa situazione dovrebbe bloccare immediatamente la carta, cambiare le credenziali e contattare la banca per avviare una procedura di chargeback.
Leggi l’articolo completo AI chatbot fraud: the ‘gift card’ subcription that may cost you dear su The Guardian.
Immagine generata tramite DALL-E 3. Tutti i diritti sono riservati. Università di Torino (28/01/2025).

