Un’inchiesta svolta dal The Guardian rivela il ruolo nascosto dei cosiddetti “super valutatori”, che sono dei lavoratori di aziende come GlobalLogic che lavorano nello sviluppo dei sistemi di intelligenza artificiale di Google.
Queste persone, spesso con formazione minima, sono chiamate a verificare e correggere le risposte dei modelli AI, anche su temi delicati quali oncologia, finanza o astrofisica, senza che però abbiano competenze specifiche.
Inoltre, molti denunciano pressioni crescenti sulla produttività. Infatti, inizialmente sembrerebbe che l’invito fosse più quello di privilegiare la qualità, ma poi la richiesta di “fare numeri” avrebbe assunto sempre più importanza e centralità, riducendo l’attenzione ai contenuti.
Le testimonianze segnalano anche un allentamento delle barriere di sicurezza. Risposte considerate inaccettabili fino al 2024, come insulti razziali, discorsi d’odio o materiale sessualmente esplicito, oggi possono essere riprodotte se inserite dall’utente.
Leggi l’articolo completo: How thousands of ‘overworked, underpaid’ humans train Google’s AI to seem smart su theguardian.com
Immagine generata tramite DALL-E 3. Tutti i diritti sono riservati. Università di Torino (26/022025).

