Meta ha recentemente dichiarato di aver modificato il suo modello linguistico Llama 4 per correggere quello che l’azienda definisce un bias politico “di sinistra” presente in tutti i principali LLM. Sebbene sia ben noto che i Large Language Model tendano a riflettere i pregiudizi presenti nei dati con cui sono addestrati in particolare per quanto riguarda razza, genere e nazionalità, Meta si è concentrata specificamente sull’orientamento politico. Secondo il blog ufficiale, l’obiettivo sarebbe rendere il sistema più equilibrato, in modo che possa rispondere articolando le diverse posizioni su temi controversi.
La mossa ha sollevato le critiche da parte di numerose figure esperte del settore. Secondo Alex Hanna del DAIR (Distributed AI Research Institute), si tratta di una risposta all’insediamento dell’amministrazione Trump. Abeba Birhane della Mozilla Foundation avverte sui rischi di affrontare questioni scientifiche attraverso una lente politica destra/sinistra. Emily Bender dell’Università di Washington pone l’attenzione sulla selezione dei dati e sui criteri utilizzati per determinare quali argomenti richiedano un trattamento “imparziale”. La mancanza di trasparenza sui dati di addestramento di Llama 4, ha sottolineato, rende difficile verificare le affermazioni di Meta riguardo a un presunto bias di sinistra.
La scelta di Meta potrebbe essere una risposta alle dinamiche competitive e politiche. Mark Zuckerberg sembra infatti posizionarsi strategicamente rispetto all’attuale amministrazione e in competizione con l’approccio sempre più orientato a destra di Elon Musk e xAI. Secondo i critici, l’azienda evita di affrontare problematiche più rilevanti del bias algoritmico, come discriminazione e sorveglianza, per allinearsi agli attuali interessi politici e commerciali.
Leggi l’articolo completo “Facebook Pushes Its Llama 4 AI Model to the Right, Wants to Present “Both Sides” su 404 Media
Immagine generata tramite DALL-E 3. Tutti i diritti sono riservati. Università di Torino (2025).

