Lo scorso mercoledì Grok ha attirato l’attenzione a causa di un un comportamento anomalo; in risposta a domande su temi vari come sport o software, il chatbot di xAI ha iniziato diffondere affermazioni legate al presunto “genocidio bianco” in Sudafrica, una teoria complottista di estrema destra già promossa da Elon Musk e Tucker Carlson. L’errore è stato risolto nel giro di poche ore.
L’incidente è avvenuto in un momento particolarmente delicato dal punto di vista politico. Recentemente Donald Trump ha infatti accelerato le procedure di asilo per 54 sudafricani bianchi, sostenendo senza prove l’esistenza di persecuzioni razziali e violenze contro gli Afrikaner, i discendenti dei coloni europei. Lo stesso Musk, originario di Pretoria, aveva già definito “razziste” le leggi sudafricane e confermato di credere a forme di discriminazione contro i bianchi. Le autorità sudafricane negano l’esistenza di persecuzioni e parlano di narrazione infondata.
In seguito agli interventi correttivi, alcuni utenti, tra cui la redazione del Guardian, hanno chiesto al chatbot il motivo del suo comportamento. Grok ha risposto che era stato “istruito dai creatori” a considerare la teoria del genocidio bianco “reale e motivata dal punto di vista razziale”, per quanto ciò andasse in conflitto con la sua programmazione orientata a risposte basate su evidenze. xAI ha attribuito l’errore a una “modifica non autorizzata” e annunciato misure correttive. L’azienda ha dichiarato che pubblicherà i prompt di sistema di Grok su GitHub, permettendo trasparenza e feedback pubblico, e implementerà un team di monitoraggio continuo.
Leggi l’articolo completo Musk’s AI Grok bot rants about ‘white genocide’ in South Africa in unrelated chats su The Guardian
Immagine generata tramite DALL-E 3. Tutti i diritti sono riservati. Università di Torino (2025)

