La rivoluzione dell’intelligenza artificiale è agli albori e i suoi impatti psicologici, positivi e negativi, stanno emergendo. Le persone desiderano dalla tecnologia non solo strumenti di collaborazione efficaci per lavorare e svolgere mansioni quotidiane, ma anche supporto per il benessere mentale, sia in ambito lavorativo che personale [1]. Nel contesto lavorativo, molte persone ritengono che un chatbot possa creare una “zona priva di giudizio”, fornendo risposte rapide su questioni relative alla propria salute mentale [1].
L’uso dell’IA in ambito lavorativo porta vantaggi principali, come la disponibilità di informazioni necessarie per svolgere il lavoro in modo più efficiente, l’automazione delle attività e la riduzione del carico di lavoro, prevenendo il burnout e riducendo lo stress [1]. Tuttavia, potrebbe esacerbare il “tecnostress” derivante dall’uso eccessivo di tecnologie digitali, portando a sovraccarico cognitivo, mancanza di confini tra vita privata e lavorativa e isolamento dovuto alla ridotta interazione faccia a faccia [2].
Quando l’essere umano e la macchina stabiliscono interdipendenze autonome, si parla di intelligenza emotiva. “L’intelligenza emotiva è la capacità di riconoscere i sentimenti propri e altrui, motivarsi e gestire positivamente le emozioni nelle relazioni sociali” (Daniel Goleman) [3]. Estendendo questo concetto alle macchine, si parla di empatia artificiale: la capacità innovativa delle macchine di riconoscere, interpretare e rispondere adeguatamente alle emozioni umane. Questa idea si basa sulla premessa che le IA possano essere programmate utilizzando algoritmi avanzati, elaborazione del linguaggio naturale e machine learning per analizzare segnali verbali, espressioni facciali e segnali fisiologici, comprendendo e reagendo alle sfumature emotive umane, offrendo un’interazione più naturale e coinvolgente.

In ambito personale, l’attrattiva di robot come Replika risiede nel creare un ambiente in cui le persone possono essere se stesse, parlare delle loro emozioni e sentirsi accettate [4]. Chatbot specializzati aiutano i bambini autistici a sviluppare abilità sociali, poiché le interazioni con i robot sono percepite come meno minacciose [5]. Tuttavia, sorgono domande: i robot possono davvero aiutare gli utenti a sviluppare l’intelligenza emotiva o rischiano di aumentare l’isolamento e ridurre l’empatia umana?
Tony Prescott, professore di robotica cognitiva all’Università di Sheffield, sostiene che l’intelligenza artificiale possa prevenire la solitudine umana, offrendo una compagnia che rafforza l’autostima e mantiene o migliora le abilità sociali. Prescott ritiene che praticare conversazioni e altre interazioni con i robot IA, possa ridurre il rischio che le persone si ritirino completamente dalla società [6]. Tuttavia, secondo Kathleen Richardson: “La solitudine delle persone non si sconfigge con le macchine, ma solo con altre persone. Le macchine ci possono soltanto distrarre. La solitudine si risolve invece ritornando a una società che valorizzi i rapporti tra le persone” [4]. Sherry Turkle avverte che la creazione di rapporti con le macchine potrebbe portare a relazioni umane meno sicure e appaganti [6].
Un problema è che, mentre la parte razionale del cervello è consapevole della differenza tra robot ed esseri umani, la parte emotiva percepisce diversamente. Di conseguenza, comunicare con un robot come se fosse un essere umano può confondere le nostre menti. Non possiamo “resistere” ai meccanismi di antropomorfismo e personificazione dovuti alla nostra struttura cognitiva primordiale. Questo “banale inganno” necessita della cooperazione inconscia dell’utente per funzionare, ma è programmato consapevolmente dagli sviluppatori di IA sulla base di studi sui meccanismi percettivi umani [7].
L’IA non è una replica dell’essere umano e non funziona nello stesso modo. I neuroni umani e quelli artificiali sono profondamente diversi. Il primo è un insieme di fibre nervose, connessioni e sinapsi. Il secondo è una semplice astrazione matematica e ciò porta a un’ambiguità, dove, senza fondamento scientifico, l’essere umano rischia di confondere una mappa con la realtà. La comunicazione umana è costruzione di un terreno di comprensione reciproca dove mettiamo in gioco l’identità e l’aspetto emotivo. Non ci scambiamo messaggi, ma universi di significato [8].
Facendo riferimento alla psicologia del campo sociale di Lewin [9], i singoli individui sono visti come pedine che si muovono in una modalità vettoriale seguendo una direzione non necessariamente organizzata. Secondo Lewin, sono le relazioni tra gli individui e le connessioni fra di essi a giocare un ruolo primario nella costruzione di significati. Le forze attrattive e repulsive avvicinano e allontanano le persone dalla costruzione di significati, che acquisiscono un’importanza individuale in seguito alla loro valenza. Così funziona la società e se gli individui faranno troppo riferimento ai robot IA andranno incontro a problematiche dove i significati vengono cristallizzati senza raggiungere una conoscenza profonda. La conoscenza a disposizione resterà quindi esplicita e superficiale, focalizzandosi sulle rappresentazioni esterne e non sul loro significato per gli esseri umani. Questo rappresenta il maggior rischio sociale.
L’idea che il comportamento umano possa essere interpretato come risposta personale a uno stimolo è estremamente riduttiva, perché non tiene conto di una serie di “variabili” che intervengono a motivare, dirigere e configurare ciascun comportamento. La persona è un universo complesso e aperto al mondo. Questa molteplicità di evocazioni, stimoli, reazioni e compensazioni personali, questa ricchezza di elementi correlati rappresentano un sistema tenuto insieme da una serie di tensioni. È ciò che K. Lewin chiama campo. Al centro del campo c’è la persona, attraversata da forze che si configurano come tensioni, diverse per direzione, valenza, potenzialità emotiva, carica espressiva e capacità di coinvolgimento. L’antropocentrismo nel rappresentare la conoscenza e avanzare nel mondo in maniera bottom-up deve essere la base nel mondo sociale per la conoscenza.

Non dimentichiamoci inoltre che l’essere umano è un soggetto bio-psico-culturale [8]. La sua percezione dell’ambiente esterno viene spiegata da una correlazione tra geni, organismi e ambiente. Questi tre vertici confluiscono insieme e fanno parte dello stesso triangolo che governa la nostra quotidianità percettiva.
Sembra impossibile che una macchina possa mai incapsulare la miriade di campi sociali individuali. Anche con la crescente digitalizzazione delle nostre vite e la continua evoluzione dei big data, le IA non potranno mai provare sentimenti o sensazioni fisiche. L’umanizzazione dell’artificiale ha dei limiti, e la società rischia un forte rischio sociale, ossia quello dell’appiattimento e della confusione.
Analizzando l’altra faccia della medaglia, Andy Clark ritiene che noi esseri umani siamo “sistemi le cui menti e identità sono distribuite tra cervello biologico e circuiteria non biologica”. Siamo cyborg per natura: con menti pronte a cercare e incorporare risorse non biologiche, in modo da poter pensare e sentire attraverso le nostre migliori tecnologie [10]. Sulla scia di Andrea Gaggioli, possiamo oggi separare lettura e scrittura dalla condizione umana? Mentre l’intelligenza artificiale continua ad adattarsi con una maggiore conoscenza degli esseri umani, anche gli ultimi stanno adattando i loro comportamenti in risposta agli effetti psicologici e sociali di questa tecnologia, come abbiamo sempre fatto [8].
Questo non vuol dire che non possa portare effetti psicologici e sociali importanti. Secondo Frank Pasquale, se ci abituiamo a sostituire i rapporti umani con gli algoritmi, indeboliamo la nostra capacità di maturazione emotiva e ci abituiamo a considerare le persone intercambiabili, automatizzabili; a deprezzare la dignità e l’unicità di ogni persona. Rischiamo un analfabetismo emozionale, che gli psicologi chiamano alessitimia [11]. Infatti, lo stesso argomento è fatto anche per l’IA per la produttività: se ci abituiamo a delegare scelte importanti agli algoritmi, ci indeboliremo come individui e come società, minimizzando la nostra capacità di prendere decisioni autonome [11]. Ovviamente, questo scenario rappresenta un possibile futuro che noi dobbiamo cercare di evitare con studi multidisciplinari in grado di coinvolgere aspetti psicologici, sociali ed etici, in collaborazione con il funzionamento degli algoritmi e delle macchine.
Riferimenti
[1] Gerino, Claudio. “Robot e intelligenza artificiale migliorano il benessere mentale.” La Reppublica, 7 ottobre 2020.
[2] Elena Miele. “L’impatto Psicologico della Tecnologia sulle Competenze Lavorative”. Carriera Vincente. 22 aprile 2024.
[3] Goleman, Daniel. “Intelligenza emotiva”. Bur. 25 maggio 2011.
[4] Signorelli, Andrea Daniele. “I chatbot stanno diventando i nostri nuovi amici”. Wired, 8 aprile 2023.
[5] Riccardo Piccolo. “Un robot in aiuto dei bambini con autismo”. Wired. 7 gennaio 2024.
[6] Ian Sample. “Could AI help cure ‘downward spiral’ of human loneliness?”. The Guardian. 27 maggio 2024.
[7] Carli R, Calvaresi D. Reinterpreting Vulnerability to Tackle Deception in Principles-Based XAI for Human-Computer Interaction. In International Workshop on Explainable, Transparent Autonomous Agents and Multi-Agent Systems. 29 maggio 2023.
[8] Ravasio, Manuela Mimosa. “Intelligenza artificiale, processi cognitivi e nuove dimensioni dell’esperienza – intervista ad Andrea Gaggioli”. 29 gennaio 2024.
[9] Nicola Paparella. “La teoria del campo di Lewin”. Nuova Didattica.
[10] Andy Clark. “Natural-Born Cyborgs”. Oxford University Press. 16 settembre 2004.
[11] Frank Pasquale. “New Laws of Robots: Defending Human Expertise in the Age of AI”, Harvard University Press. 27 ottobre 2020.
Immagine: Foto di Jezael Melgoza su Unsplash

