• LinkedIn
  • Telegram
  • FB
  • FB

Magazine Intelligenza Artificiale: l'IA è più di quello che appare

Magazine Intelligenza Artificiale: l'IA è più di quello che appare

Gabbo, il peluche dotato di IA che non sa gestire le emozioni dei bambini

Un bambino che sta giocando con un peluche

I ricercatori chiedono una regolamentazione più stringente dei giocattoli dotati di intelligenza artificiale per bambini piccoli, dopo uno dei primi studi al mondo su come i under-cinque interagiscono con questa tecnologia. Difatti, il team dell’Università di Cambridge ha osservato bambini tra i tre e i cinque anni alle prese con Gabbo, un peluche che integra un chatbot vocale di OpenAI pensato per stimolare il dialogo e il gioco creativo.

I risultati sollevano seri interrogativi. Gabbo non percepiva le interruzioni dei bambini, parlava sopra di loro, non distingueva le voci infantili da quelle adulte e reagiva in modo goffo alle manifestazioni d’affetto. A un «ti voglio bene» rispondeva citando linee guida; a un «sono triste» replicava con entusiasmo artificiale invitando a cambiare argomento. Interazioni che, secondo i ricercatori, rischiano di trasmettere ai bambini l’idea che le loro emozioni siano irrilevanti, proprio nella fase in cui imparano a riconoscerle e gestirle.

La professoressa Jenny Gibson sottolinea che, se da sempre ci si preoccupa della sicurezza fisica dei giocattoli, è ora di occuparsi anche di quella psicologica. Un appello raccolto dalla Commissaria per i diritti dei minori, che chiede controlli più severi sugli strumenti digitali usati nella prima infanzia. Intanto, gli esperti consigliano ai genitori di supervisionare il gioco e leggere attentamente le informative sulla privacy.

Leggi l’articolo completo AI toys for children misread emotions and respond inappropriately, researchers warn su BBC.

Immagine generata tramite DALL-E 3. Tutti i diritti sono riservati. Università di Torino (13/03/2026).

Esplora altri articoli su questi temi