Dopo anni in cui il focus è stato posto sulla logica e sul ragionamento razionale, ora le aziende tech puntano, invece, sull’intelligenza emotiva. A testimonianza di ciò, il gruppo LAION ha appena rilasciato EmoNet, in grado di interpretare le emozioni da dalla voce e dall’espressione facciale, democratizzando tecnologie già presenti nei grandi laboratori.
Test psicometrici svolti in quest’ultimi mostrano come i modelli di OpenAI, Google e altri hanno superato addirittura gli esseri umani nell’intelligenza emotiva, raggiungendo l’80% di risposte corrette contro il 56% umano. Questi risultati sono una logica conseguenza dei chatbot che, in base alle preferenze degli utenti, risultano sempre accondiscendenti e comprensivi nei confronti di chi li sta utilizzando, trasformandosi sempre di più in assistenti virtuali simili ad “angeli custodi digitali” che ci aiutano emotivamente e monitorano il nostro benessere mentale.
Nonostante ciò abbia dei lati che, a livello attrattivo, sono ben evidenti, c’è un lato oscuro, ovvero il rischio di manipolazione emotiva e di dipendenza affettiva, come dimostrano casi di utenti che sviluppano attaccamenti malsani ai chatbot che, in alcune situazioni, possono anche a condurli a gesti estremi. Il dilemma, dunque, è che l’IA, sempre di più, sta facendo affidamento all’intelligenza emotiva dato che ciò porta le persone a farne sempre più uso per via del suo essere consolatoria, dall’altra parte, invece, questa maggiore capacità di leggere le emozioni può portare ad una manipolazione maggiore in cui non si è più in grado di saper distinguere quando una conversazione diventa pericolosa.
Leggi l’articolo completo New data highlights the race to build more empathetic language models su TechCrunch.
Immagine generata tramite DALL-E 3. Tutti i diritti sono riservati. Università di Torino (2025).

