• LinkedIn
  • Telegram
  • FB
  • FB

Magazine Intelligenza Artificiale: l'IA è più di quello che appare

Magazine Intelligenza Artificiale: l'IA è più di quello che appare

L’intelligenza artificiale in sanità è davvero a servizio della relazione di cura come delineata dalla legge 219 del 2017?

Immagine astratta sulla medicina

La situazione odierna circa la relazione di cura

La legge 219, approvata il 22 dicembre 2017, ha portato a compimento la “rivoluzione silenziosa”[1] che ha investito la medicina a partire dalla fine del secolo scorso, quando l’autodeterminazione è diventata centrale nel rapporto medico paziente. I tre istituti – consenso informato, disposizioni anticipate di trattamento, e pianificazione condivisa delle cure –  declinati negli 8 articoli della legge, hanno definitivamente chiuso, anche sul piano giuridico, l’epoca del paternalismo medico.

Realizzare l’autodeterminazione del paziente nella scelta delle cure in tutte le circostanze sanitarie che si presentano è oggi un dovere non solo etico–deontologico ma anche giuridico. Tale dovere si compie attraverso il consenso informato[2], il cui fondamento è l’informazione che deve essere completa, aggiornata e funzionale alla decisione clinica. Al processo comunicativo richiesto partecipano tutti i soggetti coinvolti nella relazione di cura.

Gli interrogativi che si presentano con l’IA

L’uso sempre più frequente dell’IA in medicina pone al consenso informato (c.i.) alcuni problemi che qui cerco ora di esaminare. Comincio col rilevare come già oggi la scarsa trasparenza, la poca spiegabilità e intelligibilità propri del machine learning e del deep learning creino qualche difficoltà per la garanzia dovuta circa l’informazione prevista all’art 1, c.3, della legge 219/’17. Il problema diventa ancor più serio se si considera che secondo il report “Artificial Intelligence in Healthcare Market (2023-2028)”, il mercato dell’IA in medicina registrerà un tasso di crescita annuo del 42,2% durante il periodo di previsione. Supponiamo che queste previsioni di crescita si realizzino e che da oggi (2024) in avanti la presenza dell’IA aumenti ogni anno del 40%, e supponiamo anche di trovarci nel 2030 quando ormai l’IA sarà ampiamente affermata e di uso quotidiano, con più di tre/quarti delle richieste fornite dall’IA.

Quale sarà nelle nuove condizioni storiche l’impatto dell’IA sull’assistenza sanitaria e in generale sulla pratica clinica? L’avvento dell’IA si configura come un nuovo e più raffinato progresso tecnologico o invece rappresenta un cambiamento fondamentale nell’approccio alla cura dei pazienti e dell’ontologia della medicina così come è perimetrata dalla legge 219/’17? È un elemento di crescita in una linea di continuità con la direzione attuale dello sviluppo sanitario o rappresenta una cesura che modifica il quadro prospettico e valoriale dell’intera pratica sanitaria[3]?

Prime risposte normative

Per dare una risposta a tali domande negli ultimi tempi sono state avanzate nuove proposte normative al fine di tutelare l’autonomia decisionale come è oggi a noi nota. Tra le tante, il Parere “Intelligenza artificiale e Medicina: aspetti etici” (29 maggio 2020) del Comitato Nazionale per la Bioetica (CNB) e del Comitato Nazionale per la Biosicurezza, le Biotecnologie e le Scienze  della Vita (CNBBSV) afferma essere “obbligo etico e giuridico” informare chi si sottopone a trattamenti innovativi con l’IA se tali “trattamenti (diagnostici o terapeutici) provengano solo da una macchina (IA, robot) o se e quali sono gli ambiti e i limiti del controllo umano o supervisione sulla macchina. […] difficoltà [… che quando] ci si avvale [… della] IA è accresciuta dalla opacità degli algoritmi” (punto 3.4.).

Il Consiglio Superiore di Sanità (“I sistemi di intelligenza artificiale come strumento di supporto alla diagnostica”, 2021) si è mosso in simile direzione ribadendo che trasparenza, completezza e comprensibilità della comunicazione medico-paziente deve riguardare anche i sistemi di IA utilizzati nelle cure.

In questa linea il documento dell’OMS “Etica e governance dell’intelligenza artificiale per la salute” (giugno 2021) individua sei principi etici chiave che devono guidare lo sviluppo e l’impiego dell’AI in medicina, e cioè:

  1. la protezione dell’autonomia degli esseri umani;
  2. la promozione del benessere delle persone, della loro sicurezza e del pubblico interesse;
  3. la predisposizione di adeguate garanzie in materia di trasparenza, spiegabilità e comprensibilità dei sistemi AI;
  4. la promozione della responsabilità e dell’affidabilità delle tecnologie impiegate;
  5. la garanzia che siano attuati gli opportuni criteri di inclusione ed equità nello sviluppo e nell’uso dell’AI;
  6. la promozione di un AI sostenibile che sappia rispondere efficacemente alle esigenze delle persone.

Questi 6 principi sono stati ribaditi e approfonditi in un più recente documento dell’ONU (“Ethics and governance of artificial intelligence for health: Guidance on large multi-modal models“, 18 gennaio 2024) in cui si sottolinea l’esigenza di incorporare etica e diritti umani già nel nucleo stesso del design. Al fine di garantire l’eticità, la sicurezza e la tutela della privacy dei modelli di linguaggio di grandi dimensioni (LLM) applicati al settore sanitario, il documento chiude con 6 nuove raccomandazioni:

  1. gli sviluppatori devono ricevere formazione etica, simile a quella richiesta nella professione medica, per allinearsi con i requisiti etici e aumentare la fiducia nei loro prodotti;
  2. è importante eseguire valutazioni dell’impatto sulla protezione dei dati prima del loro utilizzo, valutando il rischio per i diritti e la libertà delle persone;
  3. i LLM devono essere addestrati con dati raccolti in conformità con le migliori pratiche sulla protezione dei dati;
  4. I set di dati devono essere costantemente aggiornati e adatti ai contesti specifici di utilizzo;
  5. La trasparenza sui dati utilizzati per l’addestramento è fondamentale, così come la remunerazione equa e l’assistenza ai lavoratori dei dati, incluse salvaguardie per il loro benessere.
  6. I modelli devono essere co-progettati coinvolgendo utenti e stakeholder, assicurando che siano affidabili e accurati per i compiti specifici, prevedendo eventuali risultati secondari.

Più recentemente, il 21 maggio 2024, l’Unione Europea ha approvato l’Artificial Intelligence Act (IA Act): una nuova legge-quadro che si propone di regolare l’IA sulla scorta di un approccio “basato sul rischio”: tanto maggiore è il rischio che l’uso dell’IA arrechi “danni” alla società, quanto più rigorose sono le regole che ne normano l’uso. È la prima normativa al mondo che cerca di fissare uno standard globale per la regolamentazione dell’IA, imponendo agli attori pubblici e privati l’adozione e lo sviluppo di sistemi di IA che siano sicuri e affidabili circa il rispetto della privacy e dell’autonomia.

A fronte di diversi tipi di IA, ciascuno con rischi possibili diversi, l’IA Act osserva che i sistemi IA a basso rischio (o rischio limitato) sono soggetti a obblighi di trasparenza molto leggeri, mentre quelli a più alto rischio possono essere autorizzati a patto di rispettare requisiti e obblighi più stringenti. I sistemi IA che si spingono fino alla manipolazione comportamentale cognitiva, per esempio, hanno un rischio così elevato da essere banditi.

Per quanto riguarda poi l’IA in sanità, questa deve essere soggetta a: A) trasparenza e spiegabilità; B) responsabilità; e C) prevedere eventuali sanzioni. Quanto ad A) gli utenti devono essere consapevoli del fatto che le decisioni che li riguardano sono prese con l’assistenza o sulla base di un sistema di IA. Vanno date informazioni adeguate sul funzionamento dei sistemi di IA, sui dati utilizzati e su come vengono prese le decisioni, in modo da renderle comprensibili agli utenti[4].

Quanto a B), le imprese devono identificare chi è responsabile delle varie fasi del ciclo di vita di un sistema di IA, dall’ideazione all’implementazione e all’uso. Ciò include la responsabilità per la conformità ai principi etici, alle normative sulla protezione dei dati e ai requisiti di sicurezza. La chiara assegnazione della responsabilità è fondamentale per garantire che i diritti degli utenti siano protetti e che vi sia un riferimento preciso in caso di problemi.

Quanto a C), cioè la sanzionabilità delle scorrettezze, qualsiasi persona fisica o giuridica potrà presentare un reclamo all’autorità di vigilanza del mercato competente in merito alla mancata osservanza della legge UE sull’intelligenza artificiale.

Attraverso queste misure tese a aumentare il senso di fiducia, la trasparenza e la responsabilità nell’utilizzo dell’IA, l’Unione Europea pensa di riuscire a tutelare i cittadini dai possibili pericoli creati dalla IA, e di favorire così l’innovazione europea.

Poco prima dell’approvazione definitiva dell’IA Act e in linea con questo, il Governo italiano ha emanato un DDL (“Norme di principio in materia di intelligenza artificiale”, 23 aprile 2024) per fornire una prima regolazione dei sistemi di IA stabilendo una “strategia nazionale” per l’IA. Il DDL è ampio (26 articoli) e fissa i principi generali, e in attesa dei decreti delegati va segnalata l’attenzione rivolta alla promozione e tutela del diritto di autore, la previsione di percorsi di “alfabetizzazione e formazione” all’uso dei sistemi di IA dedicati a cittadini e a professionisti, con il coinvolgimento delle istituzioni universitarie e dei competenti ordini professionali; e soprattutto l’attenzione rivolta ai temi della “Sanità e disabilità”, in cui si ribadisce l’obbligo di trasparenza e di informazione dei cittadini circa l’uso dei sistemi di IA nei contesti di cura e di ricerca sanitaria. Tali ricerche e sperimentazioni fatte sono considerate di interesse pubblico, e già si prevede il supporto dell’IA per la cura e per l’assistenza sanitaria territoriale. L’art 7 (c. 3) obbliga a informare il paziente circa l’utilizzo dell’IA nelle cure, e prevede che questa sia usata a supporto dei processi di prevenzione, diagnosi, cura e scelta terapeutica, pur restando la responsabilità giuridica in capo al medico o di altro professionista coinvolto nella scelta delle cure.

Che dire?

L’impegno istituzionale per regolare l’IA è significativo e apprezzabile, ma si ha l’impressione che le varie normative proposte partano dall’assunto che il ricorso alla IA è qualcosa di “nuovo” e di facilmente identificabile, così che, per esempio, la conoscenza dell’origine e la spiegabilità siano criteri validi per una tutela dell’autonomia degli individui.

Quest’assunto ha oggi una sua plausibilità, ma che capiterà quando l’IA sarà di routine al punto che non sapremo più bene come distinguere ciò che proviene dall’intelligenza naturale o da quella artificiale. E che succederà quando l’IA produrrà in autonomia risultati creativi, inattesi e poco o nulla “spiegabili”? In questi casi come continuare a pensare in termini di “rischio” e “danno”, quando questi sono concetti legati a uno schema messo in discussione dalla creatività stessa dell’IA?

Altri problemi poi restano circa la tutela dell’autonomia non solo del paziente ma anche dell’operatore sanitario. Anthony Elliott[5] ha rilevato come in presenza di macchine intelligenti che provvedono da sole a dare consigli e sollecitazioni, le persone tendono a quella che è chiamata la “esternalizzazione decisionale” (decision outsourcing), in quanto c’è l’inclinazione ad affidarsi ai suggerimenti ricevuti. L’autonomia personale cede al nudging o “tocco d’invito” così che la persona viene in pratica a delegare la decisione ad agenti artificiali e algoritmi intelligenti. Se ciò che scrive Elliot è vero, come si fa, allora, a tutelare l’autonomia degli attori coinvolti nelle cure? In altre parole salterebbe il primo dei 6 principi stabiliti dall’OMS nel 2021 e ribaditi dalle raccomandazioni ONU (18.1.2024).

Non meno grave è la questione circa la spiegabilità. OMS e ONU, come abbiamo visto, stabiliscono che i sistemi di IA siano progettati e implementati in modo che le varie decisioni siano “spiegabili” agli utenti e ai soggetti interessati: requisito fondamentale per favorire la responsabilità e aumentare la fiducia nell’uso dell’IA. Ma che dire della IA generativa che ha algoritmi così complessi per cui il requisito della spiegabilità non può essere soddisfatto?

Non è ben chiaro quanto si sia consapevoli del problema, ma ci troviamo ad un bivio: si deve scegliere tra il controllo umano esercitato sui sistemi di IA finalizzato alla trasparenza e alla spiegabilità dell’output, come prescrive l’IA Act, e l’avere meno vincoli per favorire sistemi IA più potenti. Che dire, poi, di quando le previsioni elaborate dagli algoritmi fungeranno da surrogati dell’autonomia personale, limitando la capacità degli individui di agire in modo autodiretto? La più ampia diffusione dell’IA cambierà il modo di vita, e diventerà normale seguire “in automatico” le indicazioni proposte, che per quanto riguarda la sanità verranno a sostituire l’affidamento alla tradizionale saggezza, competenza ed esperienza medica: che fare allora della spiegabilità? Se il tramonto del “paternalismo medico” è stato segnato dal dovere del medico di informare e spiegare al paziente le cure al fine di farlo partecipare alla decisione clinica, l’opacità degli algoritmi e la possibile non spiegabilità  degli output non riapriranno una nuova stagione  del paternalismo questa volta non del medico ma dell’IA?

La difficoltà nasce dal fatto che le varie normative oggi elaborate si basano sull’assunto (tacito) che l’IA sia solo un ulteriore “aggiunta” che migliora un qualche aspetto della pratica sanitaria, com’è stato in passato con l’evoluzione dei bisturi: dapprima sempre più affilati fino a quello elettronico e poi a quelli della robotica miniaturizzata. Questa “aggiunta” resta all’esterno e non intacca il nucleo della relazione di cura, che sta all’interno ossia nell’intimità della persona[6]. Ma che dire se l’IA non si limita solo o tanto a potenziare aspetti esterni, ma viene a modificare il nostro “interno”? Ove così fosse, ci si troverebbe di fronte a uno snodo di cesura radicale, in cui l’autonomia stessa andrebbe ripensata. Il modo di farlo è ancora incerto, ma non si può pensare che il futuro con l’IA sarà uguale al passato. Consapevoli di questo, è tempo di cominciare a pensare ai nuovi declinazioni dell’autonomia nell’assistenza sanitaria.


[1]    Immacolato M., “Dichiarazioni anticipate di trattamento e consenso informato. La “rivoluzione silenziosa” della medicina”. Rivista Italiana di Medicina Legale, Vol. XXVI- Marzo-Aprile 2004, n.2.

[2]    Immacolato M., “Informed Consent in Italy: A Mediterranean Country Towards An Autonomy-Based Model” in International Journal of Bioethics, numero gennaio 2005.

[3]    Mori M. “La IAetica come etica nuovissima per un mondo ricreato”, in R. Grimaldi (a cura di), La società dei robot, Mondadori, Milano, pp. 301 – 313.

[4] IL Consenso Informato alla luce della IA Balancing Privacy and Progress: A Review of Privacy Challenges, Systemic Oversight, and Patient Perceptions in AI-Driven HealthcareAppl. Sci. 2024, 14, 675. https://doi.org/10.3390/app14020675

[5]    Elliot A.: “L’IA erode l’autonomia in modo invisibile” https://magia.news/lia-erode-lautonomia-in-modo-invisibile/

[6]    Mori M., “La rivoluzione biomedica e la rivoluzione dell’intelligenza artificiale: un’analisi etica dei parallelismi e delle differenze” https://magia.news/la-rivoluzione-biomedica-e-la-rivoluzione-dellintelligenza-artificiale-unanalisi-etica-dei-parallelismi-e-delle-differenze/

Esplora altri articoli su questi temi