L’FDA (Food and Drug Administration) statunitense ha aperto il 29 dicembre una consultazione pubblica su una petizione che propone di spostare la supervisione dei software AI applicati alla radiologia dal processo di approvazione preventiva alla sorveglianza post-mercato. Anziché sottoporre ogni aggiornamento software a revisione regolatoria, la sicurezza verrebbe valutata mentre il sistema è già in uso clinico. La proposta risponde alla natura evolutiva di questi strumenti, che possono essere aggiornati continuamente, migliorando le prestazioni o espandendo le funzioni.
Come osserva Demetri Giannikopoulos (Chief Innovation Officer di Rad AI ed esperto in adozione clinica dell’IA) nel suo articolo su Forbes, questo spostamento apre un interrogativo fondamentale in termini di responsabilità. Se la verifica della sicurezza avviene quando l’IA è già operativa nella pratica clinica, a chi spetta garantirla concretamente e quali strumenti servono per assicurare una reale assunzione di responsabilità?
Giannikopoulos evidenzia la tensione tra rapidità degli aggiornamenti e le garanzie di sicurezza che mette in crisi un modello regolatorio pensato per dispositivi stabili, nonché il divario nella diversa capacità degli ospedali di monitorare le performance dell’IA, il ruolo dei medici come possibile ultimo presidio e l’assenza di una roadmap regolatoria chiara. La consultazione avviata dall’FDA è indice del fatto che l’attuale modello non è più sufficiente, e che è necessario sviluppare standard vincolanti per la sorveglianza continua e meccanismi di accountability distribuiti ma coordinati.
Leggi l’articolo completo: Medical AI Is Already In Hospitals. Who Is Watching Its Safety? su Forbes
Immagine generata tramite DALL-E. Tutti i diritti sono riservati. Università di Torino (03/05/2025).

