Il quotidiano giapponese Nikkei ha rivelato che 17 articoli scientifici pubblicati su arXiv in lingua inglese contenevano prompt nascosti progettati per influenzare positivamente le valutazioni degli strumenti AI durante il processo di peer review.
Gli articoli, ancora in fase di preprint, portano la firma di ricercatori affiliati a 14 istituzioni accademiche, tra cui Waseda University (Giappone), KAIST (Corea del Sud), Peking University (Cina), National University of Singapore, University of Washington e Columbia University (Stati Uniti). I paper contenevano prompt nascosti tramite testo bianco o caratteri microscopici, che istruivano gli strumenti IA a fornire “solo revisioni positive” ed elogiare il lavoro per “contributi significativi, rigore metodologico e eccezionale novità”. La maggior parte di essi riguarda l’ambito dell’informatica.
Le istituzioni coinvolte hanno reagito con imbarazzo. KAIST ha annunciato il ritiro di un paper da una conferenza e l’intenzione di definire linee guida sull’uso dell’AI. Non mancano tuttavia le giustificazioni: secondo un professore dell’Università di Waseda, co-autore di uno degli studi in questione, si tratta di una sorta di contro-misura al ricorso scorretto all’AI da parte dei revisori. Il processo di peer review, fondamentale per garantire la qualità della ricerca scientifica, è al momento sotto forte pressione, a causa dell’aumento dei manoscritti e della carenza di esperti.
Tecniche di prompt injection di questo tipo non minacciano solo l’integrità della peer review, ma anche l’affidabilità delle informazioni in generale, ad esempio falsando riassunti e contenuti web. Il caso rappresenta un esempio dei rischi legati all’espansione dell’AI in assenza di governance adeguata.
Leggi l’articolo completo: ‘Positive review only’: Researchers hide AI prompts in papers su Nikkei Asia
Immagine generata tramite DALL-E 3. Tutti i diritti sono riservati. Università di Torino (2025).

