Un’inchiesta pubblicata sabato dalla testata canadese progressista Independent ha rivelato che un report sulla sanità commissionato dal governo locale a Deloitte per 1,6 milioni di dollari contiene citazioni errate e riferimenti a ricerche inesistenti, riconducibili all’uso di IA generativa. Il documento di 526 pagine, pubblicato a maggio per fornire raccomandazioni sulla carenza di personale sanitario e l’impatto della pandemia, cita paper accademici mai scritti e attribuisce collaborazioni a ricercatori che non hanno mai lavorato insieme.
Deloitte Canada ha dichiarato che l’IA è stata impiegata solo per supportare una parte della ricerca bibliografica, sostenendo che gli errori non compromettono le raccomandazioni del report. Tuttavia, le citazioni errate riguardavano proprio le analisi di costo-efficacia su cui si basavano alcune raccomandazioni per il sistema sanitario provinciale.
Secondo Gail Tomblin Murphy, professoressa alla Dalhousie University e citata in uno dei paper inesistenti, errori di questo tipo indicano un probabile uso massiccio di IA generativa nella produzione del documento. Murphy sottolinea che “dobbiamo assicurarci che l’evidenza che informa questi studi sia la migliore evidenza disponibile, che sia validata” e che tali consulenze devono essere accurate, basate su prove solide e utili per orientare le politiche pubbliche.
Il caso riecheggia un episodio simile avvenuto in Australia a inizio ottobre, in cui un altro rapporto Deloitte da 290.000 dollari presentava allucinazioni e citazioni inventate, portando a un rimborso parziale nei confronti del governo. Non è ancora chiaro se le autorità canadesi richiederanno un rimborso come avvenuto in Australia.
Leggi gli articoli completi:
- Major N.L. healthcare report contains errors likely generated by A.I. su The Independent.ca
- Deloitte allegedly cited AI-generated research in a million-dollar report for a Canadian provincial su Fortune
Immagine generata tramite DALL-E. Tutti i diritti sono riservati. Università di Torino (24/06/2025).

