• LinkedIn
  • Telegram
  • FB
  • FB

Magazine Intelligenza Artificiale: l'IA è più di quello che appare

Magazine Intelligenza Artificiale: l'IA è più di quello che appare

IA in ambito healthcare: tra opportunità e criticità etiche

IA e salute

1. L’espansione degli agenti intelligenti nel settore sanitario

Il crescente ricorso agli agenti intelligenti artificiali, ovvero sistemi informatici e robotici dotati di intelligenza artificiale, è giustificato dall’elevato grado di accuratezza e precisione, dalla crescente autonomia nell’esecuzione dei compiti assegnati e dalla operatività continua che sono in grado di garantire. Il raggio di azione degliagenti intelligenti, un tempo limitato all’esecuzione di task ripetitivi o puramente meccanici, si sta progressivamente estendendo fino a comprendere attività richiedenti capacità cognitive avanzate finora espresse unicamente dagli esseri umani.

2. Applicazioni concrete: dalla diagnostica ai robot caregiver

Non deve stupire che negli ultimi anni si stia guardando con grande interesse alle potenzialità legate all’utilizzo dell’IA nel campo dell’assistenza sanitaria, allo scopo di mitigare alcune criticità del settore,tra cui costi in progressivo aumento e una carenza strutturale di personale qualificato in grado di soddisfare una domanda di servizi e percorsi di cura, per contro, in continua crescita [1] . Tra i settori della sanità interessati, anche a livello sperimentale, figurano la diagnostica clinica (principalmente diagnostica per immagini) [2] [3], l’assistenza a persone anziane o con disabilità fisiche e cognitive [1], e il supporto psicologico o psicoterapeutico [4] [5] [6].

Diagnostica clinica: precisione e capacità predittive

In ambito clinico la precisione diagnostica che i sistemi di IA sono in grado di offrire, in particolare nell’area oncologica, respiratoria e cardiologica, è ormai certificata da numerose evidenze scientifiche [3]. Analisi di TAC, risonanze magnetiche, referti istologici possono essere eseguite in modo più performante, riducendo tempi e costi, e consentendo di identificare patologie tumorali, respiratorie, cardiache con alta affidabilità. Altrettanto interesse suscitano le capacità predittive dei modelli di IA, utili al fine di prevedere la possibile insorgenza di una patologia severa sulla base della storia clinica del paziente [3]. Modelli di questo tipo sono in grado di predire l’insorgenza di tumori polmonari fino a sei anni di anticipo, con la possibilità di attivare percorsi di screening mirati ed efficaci [3].

Assistenza a persone anziane e disabili: il ruolo dei robot sociali

I robot sociali – agenti artificiali progettati per interagire con le persone – potrebbero essere utilizzati come caregiver artificiali [1]. Negli ultimi decenni, nei paesi economicamente più avanzati si sta assistendo ad un progressivo invecchiamento della popolazione, a cui non corrisponde un adeguato ricambio generazionale [1]. Gli individui più anziani spesso vivono soli: in Italia, l’11% degli anziani oltre i 75 anni vive da solo, e tale percentuale salirà al 15% entro il 2043 [7].

I compiti assegnati ai caregiver artificiali possono essere i più disparati: dal supporto fisico, come sollevare pazienti allettati o aiutare chi presenta difficoltà deambulatorie, all’aiuto nella somministrazione di terapie farmacologiche, fino a ruoli più emotivamente coinvolgenti, come ad esempio nella pet-therapy, in cui cuccioli robotici contribuiscono a stimolare risposte emotive nel paziente [1].

I caregiver robotici possono monitorare continuamente l’assistito, e sono programmabili in modo da dimostrare pazienza, premura e interesse per la sua salute [1]. Contrariamente ai topoi tipici della fantascienza, questi robot non sono macchine ribelli, ma macchine perfettamente obbedienti [8], dalle quali non si deve temere quei comportamenti inappropriati, e a volte purtroppo violenti, che finiscono ogni tanto alla ribalta della cronaca.

Supporto psicologico e salute mentale: chatbot e app intelligenti

Nell’ambito della salute mentale, il ricorso all’IA è orientato a fornire sia strumenti di supporto psicologico che strumenti utili alla diagnosi precoce di patologie mentali, come ansia o depressione [6], o al fine di prevenire suicidi o atti violenti [4]. L’implementazione di bot opportunamente addestrati faciliterebbe l’accesso a percorsi di supporto psicologico, essendo tali piattaforme informatiche fruibili a qualsiasi ora e con costi contenuti [6]. Si ridurrebbe inoltre la riluttanza a rivolgersi ad uno specialista, dovuta al persistere di uno stigma sociale nei confronti di chi soffre di problemi psicologici [9]. Sul fronte della prevenzione, il ricorso a specifiche app per smartphone in grado sia di monitorare in tempo reale i dati biometrici dell’utente (come alterazioni del ritmo del sonno o della frequenza cardiaca) sia di applicare tecniche di sentiment analisys a messaggi, mail, telefonate consentirebbe di identificare variazioni di pattern comportamentali potenzialmente indicativi dell’insorgenza di problematiche psicologiche [6].

3. Sfide etiche e criticità nell’impiego dell’IA in medicina

L’utilizzo dell’IA nell’ healthcare non è privo di diverse criticità sotto il profilo sia della privacy – per la natura sensibile dei dati trattati – che dell’etica.

Opacità dei sistemi e necessità di spiegabilità (XAI)

In ambito diagnostico, soprattutto nel caso dell’analisi predittiva, si pone il problema della opacità sistemica delle applicazioni di intelligenza artificiale [2]: i modelli di deep-learning (normalmente utilizzati in questo contesto) sono essenzialmente scatole nere che producono un certo output – in questo caso, una previsione diagnostica – a partire da un input senza che il processo di determinazione del risultato sia razionalmente comprensibile da parte dell’utente umano [2]. In altri termini, una diagnosi non può essere spiegata, e il paziente si ritrova nella condizione di dover scegliere se sottoporsi o meno ad un percorso di cura, potenzialmente lungo e complesso, sulla base di quella che altro non è che una previsione statistica [2]. Risulta pertanto essenziale approfondire la ricerca nella direzione della cosiddetta explainable artificial intelligence (XAI), al fine di addestrare modelli dotati di meccanismi che consentano un adeguato livello di spiegazione dei risultati [2] [10].

Ambiguità emotiva nel rapporto tra pazienti e robot caregiver

Anche nell’ambito del caregiving non mancano preoccupazioni di tipo etico, sostanzialmente legate alla dimensione dell’affettività che può svilupparsi tra paziente e caregiver robotico, in particolare se il paziente versa in condizioni di capacità cognitive degradate [1].  Il paziente può trovarsi nella condizione di non essere in grado di distinguere il vero dal falso, scambiando, ad esempio, il cucciolo robot per un animale vero, o interpretando le attenzioni e le cure che riceve come sentimenti autentici, quando tali non sono, essendo i robot sociali privi di stati mentali reali [1]. All’estremo opposto, un paziente affidato alla cura di un caregiver robot può sentirsi abbandonato dai propri cari e sentirsi ancora più solo e isolato.

Il rischio di dipendenza dagli assistenti virtuali nella salute mentale

Analoghe criticità emergono nell’ambito dell’healthcare mentale: in questo contesto, le principali preoccupazioni in merito all’adozione dell’IA riguardano il rischio di sviluppare, nei confronti dello psicoterapeuta virtuale, una vera e propria dipendenza, favorita dalla disponibilità illimitata [5] [11] di sistemi che rischiano di essere utilizzati, anziché come strumenti utili per affrontare i propri problemi, come spalle su cui piangere, o come amici o genitori virtuali sempre pronti a consolare e a rassicurare [11]. Una terapia psicologica bene impostata si muove in direzione esattamente opposta, puntando a rendere indipendente il paziente dal supporto psicologico di cui ha avuto bisogno [11]. Preoccupante, sotto il profilo della sicurezza, il rischio che i sistemi di IA manifestino comportamenti adulatori, fornendo risposte che il bot reputa in linea con il punto di vista o con la sensibilità dell’utente, e che possono essere inappropriate o pericolose [5], qualora l’utente soffra di depressione, tendenze autolesionistiche o suicidiarie.

4. Verso un’IA etica e trasparente in sanità

In conclusione, le enormi potenzialità dell’IA in relazione ad un impiego nel settore sanitario non devono in alcun modo far passare in secondo piano le criticità sul piano etico e morale. Si rende assolutamente necessario, sotto questo punto di vista, ribadire la necessità di una implementazione di sistemi di IA in cui privacy ed etica siano presenti by design e non visti come impedimento allo sviluppo delle tecnologie.

Bibliografia

[1] V. Tripodi, Robotica sociale ed assistenza sanitaria, in Filosofia dell’Intelligenza Artificiale, M. e. S. Caiani, A cura di, Bologna: Il Mulino, 2025.

[2] S. Caiani, A cosa pensano le macchine ? Efficienza e opacità nelle reti neurali artificiali, in Filosofia dell’Intelligenza artificiale, op.cit.

[3] E. Santoro, «Intelligenza artificiale in medicina: qual è il suo impatto?,» 11 Ottobre 2023. [Online]. Available: https://www.marionegri.it/magazine/intelligenza-artificiale-medicina. [Consultato il giorno 20 Giugno 2025].

[4] AA.VV, «Artificial intelligence in mental health,» Aprile 2025. [Online]. Available: https://en.wikipedia.org/wiki/Artificial_intelligence_in_mental_health. [Consultato il giorno 23 6 2025].

[5] R. S. Marc Jurblum, «Potential promises and perils of artificial intelligence in psychotherapy – The AI Psychotherapist (APT),» Australasian Psychiatry, vol. 33, n. 1, pp. 103-105, 2025.

[6] H. M. Pandey, «Artificial Intelligence in Mental Health and Well-Being: Evolution, Current Applications, Future Challenges, and Emerging Evidence,» Department of Computing and Informatics, Bournemouth University, United Kingdom, 2024.

[7] E.Marro, «Il presidente dell’Istat: «Più vecchi e più soli. Il 10,8% delle famiglie italiane è composto da single con più di 75 anni. E saliranno al 15% entro il 2043»,» 25 Aprile 2025. [Online]. Available: https://www.corriere.it/economia/lavoro/25_aprile_06/presidente-istat-intervista-famiglie-single-a9b84b62-f83b-4bb0-9523-7ce61b35fxlk.shtml. [Consultato il giorno 24 Giugno 2025].

[8] Y. N. Harari, 21 Lessons for the 21st Century, UK: Vintage – Penguin Random House, 2018, p. 77.

[9] F. Minerva e A. Giubilini, «Is AI the Future of Mental Healthcare?,» Topoi, vol. 42, Maggio 2023.

[10] T. Hulsen, «Explainable Artificial Intelligence (XAI): Concepts and Challenges in Healthcare,» AI, vol. 4, n. 3, pp. 652–666, 2023.

[11] E. Spagnuolo, «C’è chi fa psicoterapia con ChatGPT,» 26 Marzo 2023. [Online]. Available: https://www.wired.it/article/chatgpt-intelligenza-artificiale-psicoterapia-rischi-vantaggi-usi/. [Consultato il giorno 20 Giugno 2025].

Immagini generate tramite ChatGPT. Tutti i diritti sono riservati. Università di Torino (2025).

Esplora altri articoli su questi temi