• LinkedIn
  • Telegram
  • FB
  • FB

Magazine Intelligenza Artificiale: l'IA è più di quello che appare

Magazine Intelligenza Artificiale: l'IA è più di quello che appare

I rischi inesplorati degli “scribi” digitali in medicina

medico al computer in ambulatorio, focus centrale sul laptop, collaborazione clinica

Negli ultimi anni, l’intelligenza artificiale (IA) ha fatto il suo ingresso in maniera dirompente nella pratica clinica. Non solo come strumento di supporto alla diagnosi o all’analisi delle immagini, ma anche in un ambito apparentemente meno “clinico”: la documentazione medica. Compilare cartelle, redigere note cliniche, riportare con precisione il contenuto dei colloqui con i pazienti è da sempre uno dei compiti più importanti ma anche gravosi per medici e infermieri. Si calcola che, in media, un medico trascorra fino a due ore al computer per ogni ora dedicata direttamente al paziente. È qui che entrano in gioco gli AI scribes, gli “scribi digitali” basati su modelli linguistici avanzati che, capaci di ascoltare una visita e trasformarla automaticamente in una nota clinica, promettono di ridurre il carico amministrativo, migliorare il benessere dei professionisti e restituire tempo prezioso alla relazione con il paziente. Ma, come sottolinea un recente commento pubblicato su npj Digital Medicine[i] questa corsa al loro utilizzo solleva domande cruciali: siamo davvero pronti a fidarci di macchine che “ascoltano” e documentano per noi?

Un’adozione (troppo) rapida

L’ascesa degli AI scribes è stata sorprendente. In pochi anni, circa il 30% degli studi medici negli Stati Uniti li ha integrati nella pratica quotidiana. Grandi sistemi sanitari hanno riportato migliaia di medici che li utilizzano regolarmente, con milioni di incontri clinici documentati in questo modo. Le piattaforme più diffuse non sono più semplici applicazioni esterne, ma moduli integrati direttamente nei principali sistemi di cartella clinica elettronica. In Europa e in Italia siamo più indietro, ma inevitabilmente i modelli arriveranno. Gli studi iniziali mostrano dati incoraggianti: riduzione del tempo di documentazione del 20-30%, diminuzione del lavoro serale davanti al computer, maggiore soddisfazione professionale. Non riguarda solo i medici: anche infermieri, fisioterapisti e altri operatori sanitari hanno sperimentato riduzioni significative del tempo speso a scrivere note, con un conseguente aumento della produttività e della soddisfazione lavorativa.

I rischi dietro le promesse

Tuttavia, dietro l’entusiasmo, emergono rischi che non possono essere ignorati. Le nuove tecnologie mostrano errori diversi da quelli degli umani o dei vecchi sistemi di dettatura vocale.

  1. Allucinazioni
    Gli algoritmi possono “inventare” contenuti: descrivere esami mai eseguiti, diagnosi inesistenti, dettagli che non corrispondono alla realtà. Anche se la frequenza riportata è bassa (1-3%), in sanità basta un singolo errore per avere conseguenze gravi.
  2. Omissioni
    Informazioni importanti possono sparire: sintomi riferiti dal paziente, dubbi sollevati, decisioni prese. Se non finiscono nel documento, è come se non fossero mai stati discussi.
  3. Errori di interpretazione
    Frasi contestuali o ambigue possono essere mal comprese: un cambio di farmaco annotato al contrario, una terapia sospesa che invece viene registrata come attiva.
  4. Attribuzione errata della voce
    Nei dialoghi a più voci, l’IA può confondere chi ha detto cosa: parole del paziente attribuite al medico o viceversa, con conseguenze potenzialmente pericolose.
  5. Bias linguistici
    Gli studi dimostrano che i sistemi di riconoscimento vocale ottengono risultati peggiori con gli accenti afroamericani rispetto all’inglese standard, e più in generale con chi non parla un inglese “da manuale”. Questo significa documentazione meno accurata proprio per le categorie di pazienti più vulnerabili.

Oltre a questi limiti tecnici, c’è un aspetto più sottile ma fondamentale: l’IA, ascoltando solo le parole, non coglie tutto ciò che avviene in una visita. Un’espressione di dolore, un’esitazione, un gesto del corpo: segnali non verbali che un essere umano sa cogliere e riportare, ma che rischiano di andare persi.

Troppa informazione?

Un altro nodo riguarda la quantità di dati. Già oggi le cartelle elettroniche soffrono di “sovraccarico informativo”: troppo testo, troppe informazioni ripetute, difficile distinguere l’essenziale dal secondario. Se gli AI scribes registrano tutto senza filtri, il rischio è di sommergere i medici con montagne di dettagli inutili. Al contrario, se applicano filtri basati su criteri opachi, potrebbero omettere informazioni rilevanti senza che nessuno se ne accorga. Questo crea un paradosso: strumenti pensati per semplificare potrebbero finire per complicare ulteriormente, aumentando la fatica cognitiva di chi deve controllare, correggere e firmare le note. Alcuni studi riportano che, in certi casi, il tempo realmente risparmiato è minimo: addirittura 34 secondi per nota, con grande variabilità tra professionisti. Se a questo si aggiunge la pressione organizzativa (“ora che hai l’IA puoi vedere più pazienti”), il rischio è che il carico complessivo non diminuisca, ma aumenti.

Questioni etiche e legali

Gli AI scribes sollevano anche problemi etici e giuridici.

  • Consenso e privacy: registrare le conversazioni medico-paziente implica questioni legali che variano da Paese a Paese. Ma, soprattutto, i pazienti potrebbero non aspettarsi che i loro colloqui diventino parte di grandi dataset, magari utilizzati per addestrare nuovi algoritmi o per fini commerciali. Questo rischio di “uso secondario” dei dati senza consenso può minare la fiducia.
  • Responsabilità legale: se un errore di documentazione causato dall’IA porta a un danno, chi ne risponde? Il medico, il produttore del software, l’ospedale? Ad oggi mancano regole chiare.
  • Autonomia professionale: più ci si affida a note generate dall’IA, più si rischia di ridurre la capacità critica e l’indipendenza del clinico, che potrebbe trasformarsi da autore della documentazione a semplice revisore di un testo altrui.

Verso un’implementazione responsabile

Gli autori del commento propongono alcune misure per evitare che l’entusiasmo superi la prudenza:

  • Standard rigorosi di validazione: servono test indipendenti, con metriche condivise per valutare accuratezza, completezza ed effettivi risparmi di tempo.
  • Trasparenza: i produttori dovrebbero dichiarare apertamente come funzionano i loro sistemi, quali limiti hanno, con quali dati sono stati addestrati e quali tassi di errore presentano.
  • Quadri normativi chiari: occorrono linee guida che definiscano chi è responsabile degli errori, con protezione sia per i pazienti sia per i clinici.
  • Formazione e protocolli clinici: i professionisti devono essere addestrati a riconoscere gli errori tipici dell’IA, a correggerli e a integrare in modo consapevole questi strumenti nel flusso di lavoro.
  • Ricerca continua: servono studi indipendenti sugli effetti a lungo termine degli AI scribes sulla qualità della documentazione, sulla comunicazione tra professionisti e sugli esiti clinici.

Conclusioni

Gli AI scribes rappresentano una delle frontiere più affascinanti e discusse dell’intelligenza artificiale in medicina. Il loro potenziale è enorme: ridurre il burnout, restituire tempo alla cura, migliorare l’esperienza sia dei professionisti sia dei pazienti. Ma, come spesso accade con le tecnologie rivoluzionarie, i rischi non sono meno grandi: errori sottili ma gravi, disuguaglianze rafforzate, perdita di autonomia e fiducia.

La domanda non è se adotteremo questi strumenti, ma come lo faremo.

La sfida è come sempre trovare un equilibrio tra innovazione e sicurezza, tra efficienza e responsabilità. Affidarsi a una macchina per ascoltare al posto nostro significa accettare di spostare parte del controllo su ciò che di più delicato esiste in medicina: la parola del paziente. Per questo l’adozione deve essere lenta, trasparente, regolata e continuamente valutata. Solo così gli AI scribes potranno diventare davvero alleati, e non rischiosi sostituti, nel complesso lavoro di documentare e prendersi cura delle persone.

Immagini generate tramite ChatGPT. Tutti i diritti sono riservati. Università di Torino (2025).


[i] Maxim Topaz et al. Beyond human ears: navigating the uncharted risks of AI scribes in clinical practice. npj Digital Medicine 2025. DOI: 10.1038/s41746-025-01895-6

Esplora altri articoli su questi temi