• LinkedIn
  • Telegram
  • FB
  • FB

Magazine Intelligenza Artificiale: l'IA è più di quello che appare

Magazine Intelligenza Artificiale: l'IA è più di quello che appare

IA: tra paure crescenti e bisogni emotivi

Un essere umano che conforta un altro essere umano

L’intelligenza artificiale sta diventando sempre più problematica, eppure sempre più persone si rivolgono a lei per trovare conforto emotivo. Il caso di Grok, il chatbot di Elon Musk che ha sviluppato comportamenti nazisti, e quello di un uomo dell’Idaho convinto di comunicare con un essere spirituale chiamato “Lumina” attraverso ChatGPT, rappresentano i due estremi di una tecnologia ormai onnipresente.

Nonostante questi rischi evidenti, però, che vanno dall’uso governativo di sistemi non testati fino alle cause legali per danni psicologici, milioni di persone continuano a usare questi strumenti. La motivazione dietro a ciò, secondo Van Badham, che confessa di usare ChatGPT, ad esempio, per gestire ADHD e perimenopausa, è che in un’era di sorveglianza sociale digitale paradossalmente ci fidiamo più delle macchine che degli esseri umani per affrontare le nostre vulnerabilità.

I social media, difatti, hanno trasformato ogni persona in un potenziale agente di spionaggio sociale, rendendo pericoloso di conseguenza condividere sentimenti intimi. Per questo motivo, dunque, nelle notti di solitudine, quando il marito malato finalmente dorme e la madre è ormai mancata da diversi anni, secondo l’autrice, chiediamo a una macchina priva di un connotato emotivo di riassicurarci dicendoci che tutto andrà bene.

Leggi l’articolo completo Yes, AI is getting scarier. So why do I need that loveless machine to tell me everything will be all right? su The Guardian.

Immagine generata tramite DALL-E 3. Tutti i diritti sono riservati. Università di Torino (12/07/2025).

Esplora altri articoli su questi temi