• LinkedIn
  • Telegram
  • FB
  • FB

Magazine Intelligenza Artificiale: l'IA è più di quello che appare

Magazine Intelligenza Artificiale: l'IA è più di quello che appare

La legge quadro italiana sull’IA e il paradosso dell’antropocentrismo medico 

IA sanità

Introduzione 

L’intelligenza artificiale (IA) è ormai parte integrante della medicina: algoritmi di supporto alla diagnosi, sistemi predittivi di rischio, telemedicina, refertazione automatica, etc. sono diventati riferimenti quotidiani, tanto che quasi non ce ne rendiamo neanche più conto. Per alcuni di noi è come se non l’avessero mai vista arrivare.  Per i più l’impatto è stato così rapido e così sorprendente da lasciarli galvanizzati e pressoché inerti. Di fatto, in Italia finora il quadro giuridico nazionale era limitato al recepimento di norme europee, in particolare il Regolamento (UE) 2024/1689 – AI Act (che invece è stato prontamente apprestato dall’Unione Europea).

Con l’approvazione della legge quadro “Disposizioni e deleghe al Governo in materia di intelligenza artificiale” [1] l’Italia ha scelto di dotarsi di una cornice organica, volta  a regolare lo sviluppo e l’applicazione dell’IA in settori strategici come la sanità, la giustizia, la pubblica amministrazione e la ricerca scientifica, cornice che avrà un impatto diretto e visibile su tutti i campi anche sulla pratica clinica. Per questo è opportuna una prima analisi critica della nuova legge, almeno per quel che riguarda l’assistenza sanitaria.

1. Ambito sanitario: obiettivi e principi

Nell’ambito della sanità, l’area di cui mi occupo in questo articolo, la nuova legge mira a tutelare l’assistenza sanitaria attraverso un controllo rigoroso delle questioni connesse ai dati personali dei pazienti, alla individuazione di chiare responsabilità mediche, all’introduzione di principi e strumenti per garantire la sicurezza dell’IA, la sua trasparenza e la formazione adeguata degli operatori sanitari. 

2. Antropocentrismo come principio guida

La legge, composta da ventotto articoli raggruppati in sei capi, è molto articolata e viene a normare ambiti tra loro diversi, ispirandosi all’AI Act europeo. Tuttavia introduce specificità italiane, tra cui spicca una forte enfasi sull’“antropocentrismo” come principio guida. 

3. Quattro articoli per la sanità (7–10): trasparenza e auditabilità

La legge dedica quattro articoli (7 -10) al settore sanitario, delineando un quadro normativo che punta a rafforzare principi quali la trasparenza, la sorveglianza umana dei sistemi, la spiegabilità degli algoritmi, la cybersicurezza e a coniugare innovazione tecnologica e tutela dei diritti fondamentali. Per il mondo sanitario, significa, tra l’altro, che ogni software dovrà garantire auditabilità[2], termine che indica la possibilità di tracciare, controllare e verificare il funzionamento del sistema e di ricostruire le scelte dell’algoritmo.  

4. Articolo 7: uso dell’IA in sanità e disabilità

Entrando più nello specifico, l’Articolo 7Uso dell’intelligenza artificiale in ambito sanitario e di disabilità – stabilisce che l’IA deve rafforzare il sistema di prevenzione, diagnosi e cura, senza sostituirsi al medico nella decisione clinica. Non può essere usata per “selezionare e condizionare l’accesso alle prestazioni sanitarie secondo criteri discriminatori”. L’IA deve promuovere l’inclusione delle persone con disabilità. Ogni cittadino ha diritto a sapere quando viene impiegata una tecnologia basata su IA nel proprio percorso di cura attraverso il consenso informato (comma 3). Per i minori (18 -14 anni), l’articolo 4, comma 4, impone che l’informativa propedeutica al consenso al trattamento dei dati sia comprensibile e accessibile. [3] 

5. Consenso informato: esempio operativo

Per cercare di cogliere meglio l’effetto previsto, a titolo esemplificativo è possibile immaginare un modello di consenso informato alla luce della nuova legge. In realtà si tratta di una integrazione al consenso informato, di cui alla legge 219/2017, art. 1, comma 3, nel quale alla voce “Descrizione del Trattamento” va aggiunto un testo del tipo di quello qui sotto riportato: 

“La informiamo che, nell’ambito del Suo percorso di cura, verranno utilizzati strumenti di intelligenza artificiale (IA) per supportare le decisioni mediche. Questi strumenti sono stati sviluppati per migliorare la precisione diagnostica e ottimizzare i trattamenti. L’uso dell’IA è regolamentato dalla legge n. S.1146, approvata il 17 settembre 2025, che garantisce la tutela dei Suoi dati personali e la trasparenza delle decisioni mediche. 

L’IA verrà utilizzata per analizzare i Suoi dati clinici (esami di laboratorio, immagini, referti, etc.) per fornire suggerimenti diagnostici e/o terapeutici non vincolanti al medico curante. Questi suggerimenti saranno basati su algoritmi avanzati, addestrati su grandi quantità di dati. Il medico curante manterrà sempre la responsabilità clinica delle decisioni prese. 

I Suoi diritti sono: 

  •  Avere una informazione chiara e comprensibile sull’uso dell’IA nel Suo percorso sanitario.
  • Acquisire la consapevolezza che l’IA può commettere errori o fornire suggerimenti non sempre corretti che il medico ha l’obbligo di verificare prima di proporre una diagnosi o una terapia.
  • Esercitare il diritto di opporsi all’uso dell’IA in qualsiasi momento, fermo restando che sarà comunque garantita l’assistenza sanitaria
  • Sapere che Il trattamento dei suoi dati personali avverrà in conformità con il Regolamento (UE) 2016/679 (GDPR) che prevede il diritto di accesso e la possibilità di richiedere la loro correzione o cancellazione.

Consenso: 

Con la presente, dichiaro di aver compreso le informazioni fornite e di acconsentire all’uso dell’intelligenza artificiale nel mio percorso di cura, come descritto sopra”. 

6. Articoli 8–10: ricerca, dati e piattaforma nazionale

Continuando l’esame di alcuni aspetti degli altri tre articoli dedicati alla sanità risulta che l’Art 8 – Ricerca e sperimentazione scientifica nella realizzazione di sistemi di intelligenza artificiale in ambito sanitario – riconosce come di rilevante interesse pubblico il trattamento dei dati sanitari per finalità di ricerca in attuazione degli artt. 32 e 33 della Costituzione. Enti pubblici, IRCCS e soggetti non profit possono utilizzare dati personali – anche sensibili – per addestrare algoritmi.  Viene autorizzato l’uso secondario di dati personali anonimizzati, anche senza consenso, se previsto dalla legge. Al comma 4 viene stabilito che l’Agenzia nazionale per i servizi sanitari regionali (AGENAS), può definire linee guida per la creazione di dati sintetici, previo parere del Garante.

Dal canto suo l’Articolo 9Disposizioni in materia di trattamento di dati personali – promuove la valorizzazione dei dati sanitari attraverso infrastrutture tecnologiche sicure e interoperabili, per facilitare la condivisione tra istituzioni e accelerare l’innovazione scientifica. Delega al Ministro della Salute la regolamentazione del trattamento dei dati personali per la ricerca con intelligenza artificiale. Questo include l’uso secondario dei dati, la creazione di spazi di sperimentazione e il coinvolgimento di enti di controllo, mantenendo sempre il consenso informato e il diritto di opposizione, anche per i minori. 

L’Articolo 10 Disposizioni in materia di fascicolo sanitario elettronico, sistemi di sorveglianza nel settore sanitario e governo della sanità digitale –, infine, istituisce una piattaforma nazionale integrata con il Fascicolo Sanitario Elettronico (FSE), implementata previo parere di Ministero della Salute, del Garante della Privacy e dell’Agenzia per la Cybersicurezza, [4] gestita da AGENAS. Questa piattaforma fornirà suggerimenti non vincolanti “a) ai professionisti sanitari per la presa in carico della popolazione assistita con suggerimenti non vincolanti; b) ai medici nella pratica clinica quotidiana con suggerimenti non vincolanti; c) agli utenti per l’accesso ai servizi sanitari delle Case della comunità.” La responsabilità della decisione clinica è del medico. I dati utilizzati devono essere strettamente necessari, e AGENAS è titolare del trattamento. Le misure di sicurezza e l’impatto sui diritti saranno valutati con il parere del Ministero della Salute, del Garante e dell’Agenzia per la cybersicurezza. Il progetto è finanziato dal programma Smarter Italy[5] e mira a favorire l’innovazione nel settore sanitario per supportare medici e pazienti nell’uso consapevole dell’IA.

7. Implicazioni cliniche, giuridiche e medico-legali

La piattaforma comporta dal punto di vista medico, la possibilità di interrogare direttamente l’IA per ricevere supporto decisionale in tempo reale. Dal punto di vista giuridico, la non vincolatività dei suggerimenti garantisce la centralità della responsabilità del medico. Dal punto di vista del medico legale, la valutazione del nesso causale in caso di eventi avversi, dovrà distinguere la responsabilità professionale da malfunzionamenti algoritmici.  

8. Tre punti chiave medico-legali

Tre sono i punti chiave medico legali che risultano dalla legge: 

  1. Consenso informato: deve includere le informazioni circa l’uso dell’IA, con linguaggio chiaro e accessibile. 
  2. Tracciabilità algoritmica: ogni suggerimento dell’IA deve essere registrato, per consentire valutazioni forensi. 
  3. Formazione: i medici devono ricevere training strutturato e certificato, pena il rischio di un divario digitale che aumenterebbe errori, disuguaglianze e incremento della responsabilità professionale in caso di eventi avversi. 

9. Formazione e confronto internazionale (USA, UE, Italia)

In attesa di vedere quale tipo di formazione verrà proposto (passo decisivo), è qui opportuno cercare di fare un breve confronto tra Il tipo di regolamentazione previsto dalla nostra legge per l’utilizzo di software di IA in sanità con quello americano e con quello europeo. Negli Stati Uniti il modello normativo è decentrato, flessibile, fortemente orientato all’innovazione, affida la supervisione a FDA [6] , HIPAA[7] e agli Stati. La FDA classifica alcuni software di IA come “dispositivi medici” e ne autorizza la messa in commercio senza alcun tipo di restrizione. 

In Europa, invece, l’AI Act inserisce i sistemi IA sanitari tra le applicazioni “ad alto rischio”, e quindi soggette a requisiti di conformità più stringenti. La supervisione è affidata alla UE e alle autorità nazionali. Sono centrali i valori etici e la tutela dei diritti individuali la cui difesa bilancia la spinta all’innovazione.

La legge italiana, si colloca come cernieratra le due prospettive: recepisce l’impianto europeo, ma introduce strumenti operativi nazionali più agili e meno stringenti – come la piattaforma AGENAS – che forniscono supporto clinico, e promuovono l’inclusione. L’innovazione è subordinata ai valori etici su cui  è costruita la legge. 

10. Il paradosso dell’antropocentrismo

L’intento della legislazione italiana è chiaro: promuovere l’IA per migliorare diagnosi, terapie, gestione dei dati clinici e prevenzione. Ma il tentativo di regolamentare l’uso dell’IA in sanità resta ancorato a una visione che considera l’intelligenza come prerogativa umana, e la tecnologia come mera estensione di informazioni che si presume restino sempre subordinate al nostro controllo e non cambino il quadro sostanziale della nostra “umanità”, cioè al fondo propone una prospettiva fortemente antropocentrica. Infatti, tutte le procedure dell’IA sono finalizzate al solo ed esclusivo criterio della persona umana e, soprattutto, devono restare strettamente subordinate al controllo umano.

Ma che cosa significa davvero “antropocentrismo” in un contesto tecnologico così nuovo e così diverso dai precedenti come quello caratterizzato dalla IA? E soprattutto: l’antropocentrismo è ancora un paradigma adatto o idoneo per affrontare le sfide etiche, ambientali e sociali che l’intelligenza artificiale solleva, in particolare nel campo medico? 

C’è un limite all’antropocentrismo? E qual è?  Su questo punto le posizioni sono diverse: c’è chi come Maurizio Mori critica l’antropocentrismo a tutto campo per essere incapace di prevedere che l’IA diventerà una realtà autonoma e che questo nuovo dato porterà a cambiare l’uomo stesso[8]. Con un’analogia Mori sostiene che l’IA non è solo una sorta di cacciavite un po’ più potente o efficiente (come si continua a supporre), ma è qualcosa che già ora ha una sua valenza autonoma, che questa aumenterà vieppiù arrivando a trasformare l’umano. D’altro canto c’è invece chi, come il neurobiologo vegetale calabrese Stefano Mancuso, autore di La nazione delle piante[9], denuncia l’antropocentrismo come una forma di miopia culturale che ci impedisce di riconoscere l’intelligenza diffusa nel mondo vivente. Le piante, pur prive di cervello, sono capaci di comunicare, cooperare, risolvere problemi e adattarsi all’ambiente in modo sostenibile. 

11. Verso un’IA ecocentrica

Applicare questa visione alla progettazione dell’IA significa superare il paradigma umano-centrico e aprirsi a una concezione ecocentrica dell’intelligenza. In ambito medico, questo potrebbe tradursi in sistemi capaci di integrare dati ambientali, ritmi naturali, interazioni tra specie, per costruire modelli di salute più complessi e resilienti. 

La piattaforma AGENAS, ad esempio, potrebbe evolvere in senso post-antropocentrico, diventando uno strumento non solo di supporto e di monitoraggio clinico, ma anche di osservazione ecologica, capace di correlare dati sanitari con fattori ambientali, sociali e biologici. 

Una medicina post-antropocentrica è possibile? 

12. Una medicina post-antropocentrica è possibile?

La medicina del futuro non può limitarsi a ottimizzare il corpo umano attraverso algoritmi. Deve ripensare il concetto stesso di salute, includendo la relazione con l’ambiente, la biodiversità, il contesto sociale. Un’IA post-antropocentrica potrebbe aiutare a monitorare l’impatto dell’inquinamento sulla salute, a prevedere patologie legate al cambiamento climatico, a promuovere stili di vita in armonia con i cicli naturali. Potrebbe contribuire a realizzare la salute sia come l’OMS l’ha definita nel 1948 “Uno stato di completo benessere fisico, mentale, sociale e non semplicemente l’assenza di malattia o infermità” sia come l’ha concepita Huber et al. nel 2011 “La salute è la capacità di un individuo o di una comunità di adattarsi e autogestirsi di fronte alle sfide fisiche, mentali e sociali.”[10] 

In questo senso, l’intelligenza artificiale non sarebbe più uno strumento al servizio dell’uomo, ma un alleato nella comprensione del vivente. Come suggerisce Mancuso, è tempo di riconoscere che l’intelligenza non è un privilegio umano, ma una qualità diffusa, che può guidarci verso un futuro più giusto, sostenibile e condiviso. 

Conclusione 

Si sono levate voci critiche alla legge italiana che riprendono quelle già sollevate all’IA-Act: ridondanza di principi e regole inapplicabili sul piano pratico, regolamentazione inefficace in quanto i sistemi sono sviluppati in paesi extraeuropei dove vigono altre regole, strumento normativo che al contrario di quanto afferma frena lo sviluppo dell’IA e dei benefici che apporta in tutti i settori. 

Non condivido queste critiche, la legge italiana sull’IA, in continuità con l’IA-Act, rappresenta un passo importante verso lo sviluppo e l’uso etico dell’IA in sanità, in linea con i 6 principi etici pubblicati dall’OMS nel 2021 “Ethics and governance of artificial intelligence for health”[11]. Il rischio che però sembra emergere è quello di consolidare una visione limitata e autoreferenziale. Per affrontare le sfide del presente e del futuro, serve un cambio di paradigma: dall’antropocentrismo all’ecocentrismo, dalla centralità dell’uomo alla centralità delle relazioni nell’ecosistema. 

In ambito medico, questo significa progettare tecnologie che non si limitino a “curare” l’individuo, ma che contribuiscano a “guarire” il rapporto tra l’uomo e il pianeta. Solo così l’intelligenza artificiale potrà diventare davvero uno strumento di progresso, non solo tecnico, ma anche etico e culturale. 

Immagini generate tramite ChatGPT. Tutti i diritti sono riservati. Università di Torino (2025).


[1]  Senato della Repubblica, Disegno di legge n. S.1146, approvato in via definitiva il 17 settembre 2025, in vigore dal 10 ottobre 2025.

[2] deriva da “audit” -verifica, controllo.

[3] Artt. 1–4, DDL S.1146 – Principi generali, tutela dei dati e consenso. 

[4] Artt. 9–10, DDL S.1146 – Trattamento dei dati per ricerca e istituzione della piattaforma AGENAS.  

AGENAS, documentazione progettuale “Piattaforma IA a supporto dell’assistenza primaria”, 2024–2025 (programma Smarter Italy). 

[5] Agenzia per l’Italia Digitale (AgID) Smarter Italy – Con l’innovazione si cresce
Sito ufficiale del programma: https://smarteritaly.appaltinnovativi.gov.it

[6]Food and Drug Administration, agenzia governativa degli Stai Uniti che si occupa di regolamentare e controllare la sicurezza e l’efficacia di farmaci, dispositivi medici, alimenti, etc.

[7] Health Insurance Portability and Accountability: legge federale statunitense che regola privacy e la sicurezza dei dati sanitari dei pazienti.

[8] Maurizio Mori, “Non basta rispettare l’intimior: l’IA come realtà autonoma”, MagIA, 2 luglio 2025. Contributo in risposta alla tesi di Palma Sgreccia, “‘Intimior intimo meo’: interiorità e coscienza nell’era artificiale”, MagIA, 8 giugno, 2025.

[9] Stefano Mancuso, La nazione delle piante, Bari; Roma: Laterza, 2019.

[10] Huber, M., Knottnerus, J. A., Green, L., van der Horst, H., Jadad, A. R., Kromhout, D., … & Smid, H. (2011). How should we define health? BMJ, 343, d4163. https://doi.org/10.1136/bmj.d4163

[11]  World Health Organization. (2021). Ethics and governance of artificial intelligence for health: WHO guidance. Geneva: World Health Organization. ISBN: 978-92-4-002920-0. Disponibile su: https://www.who.int/publications/i/item/9789240029200

Esplora altri articoli su questi temi