• LinkedIn
  • Telegram
  • FB
  • FB

Magazine Intelligenza Artificiale: l'IA è più di quello che appare

Magazine Intelligenza Artificiale: l'IA è più di quello che appare

Dietro le quinte dell’IA, chi le addestra non si fida dei chatbot

Lavoratori IA e sfiducia.

I lavoratori che addestrano l’intelligenza artificiale sono spesso i primi a sconsigliarne l’uso in famiglia. Krista Pawloski lavora su Amazon Mechanical Turk valutando testi, immagini e video generati da IA. Un paio d’anni fa stava classificando tweet per individuare contenuti razzisti quando quasi approvò un messaggio che conteneva “mooncricket”, termine che poi scoprì essere un insulto contro gli afroamericani. Si rese conto di quante volte poteva aver commesso lo stesso errore senza accorgersene. Da allora ha vietato alla figlia adolescente di usare ChatGPT e quando parla con conoscenti suggerisce di testare l’IA su argomenti che conoscono bene, per rendersi conto degli errori. Non è l’unica. Dozzine di valutatori che lavorano su Gemini, Grok e altri chatbot raccontano al Guardian esperienze simili. Una rater di Google che valuta le AI Overviews ha proibito alla figlia di 10 anni di usare questi strumenti perché deve prima sviluppare capacità di pensiero critico. Ha visto colleghi valutare risposte mediche senza formazione adeguata e lei stessa ha dovuto giudicare questioni sanitarie senza competenze specifiche.

Brook Hansen lavora su Mechanical Turk dal 2010 e ha contribuito ad addestrare alcuni dei modelli più diffusi della Silicon Valley. Il suo problema non riguarda l’intelligenza artificiale in sé ma il modo in cui viene sviluppata. Istruzioni vaghe, formazione minima, scadenze strette. Se i lavoratori non hanno le risorse necessarie, sostiene, come possono i risultati essere sicuri o etici? La pressione aziendale privilegia velocità e profitto rispetto a responsabilità e qualità.

I numeri confermano queste preoccupazioni. Un audit di NewsGuard sui 10 principali modelli tra agosto 2024 e agosto 2025 mostra che i chatbot hanno smesso di rispondere “non lo so”. Il tasso di non-risposta è sceso dal 31% allo 0%, ma nello stesso periodo la probabilità di diffondere informazioni false è passata dal 18% al 35%, quasi raddoppiando.

Leggi l’articolo completo “Meet the AI workers who tell their friends and family to stay away from AI” su The Guardian.

Immagine generata tramite DALL-E 3. Tutti i diritti sono riservati. Università di Torino (25/11/2025).

Esplora altri articoli su questi temi