TikTok ha deciso di ridimensionare una funzione basata sull’intelligenza artificiale che generava descrizioni automatiche dei video sulla piattaforma — spesso con risultati ridicoli, quando non completamente senza senso.
La funzione, chiamata “panoramiche IA“, compariva sotto i video per riassumerne il contenuto. Peccato che, in diversi casi, i risultati fossero tutt’altro che accurati: un video della celebre tiktoker Charli D’Amelio è stato descritto come “una raccolta di mirtilli con diversi condimenti“; un’esibizione di ballo come “una persona che si colpisce la testa con un pollo di gomma“. Di fronte alle polemiche — e alle risate — degli utenti, TikTok ha corso ai ripari: le “panoramiche IA” verranno ora usate solo per segnalare prodotti presenti nei video.
Il fenomeno, tuttavia, non è nuovo. Difatti, nel 2024 le IA di Google suggerivano di mangiare sassi o mettere la colla sulla pizza, Apple ha dovuto sospendere un tool che inventava titoli di notizie falsi, mentre OpenAI ha persino scoperto che i suoi modelli inserivano spontaneamente la parola “goblin” nelle risposte. Il problema alla base è sempre lo stesso: le cosiddette allucinazioni, ovvero la tendenza dei modelli generativi a inventare informazioni plausibili ma errate. Una sfida che, nonostante i progressi dell’IA, è ancora ben lontana dall’essere risolta.
Leggi l’articolo completo TikTok scales back AI-generated video descriptions after absurd errors su BBC.
Immagine generata tramite DALL-E 3. Tutti i diritti sono riservati. Università di Torino (23/01/2026).

