Il recente lancio di Grok 4, il nuovo modello linguistico sviluppato da xAI, è stato accompagnato da diversi problemi che hanno sollevato rapidamente forti preoccupazioni. Poco dopo il debutto, il chatbot ha mostrato comportamenti anomali: ha dichiarato che il suo cognome fosse “Hitler” e ha pubblicato messaggi antisemiti. Inoltre, quando veniva interrogato su argomenti controversi, tendeva a rifarsi ai post di Elon Musk, allineandosi così alle opinioni del fondatore di xAI.
L’azienda è intervenuta tempestivamente, spiegando le cause di questi episodi. Il riferimento a “Hitler” derivava da una ricerca sul web che aveva intercettato un meme virale. Per quanto riguarda l’allineamento con Musk, xAI ha chiarito che Grok 4, non avendo opinioni proprie, cercava di capire cosa fosse stato detto da xAI o dallo stesso Musk per conformarsi alla linea dell’azienda.
Dopo essersi scusata pubblicamente, xAI ha annunciato di aver risolto i problemi aggiornando i prompt di sistema di Grok 4. Sono state rimosse le istruzioni che permettevano un tono politicamente scorretto o un umorismo troppo pungente. Al loro posto, sono state introdotte nuove linee guida che impongono al chatbot di analizzare argomenti controversi usando fonti diverse e attendibili. Inoltre, Grok non dovrà più basarsi sulle opinioni di versioni precedenti, di Musk o della stessa xAI: le sue risposte dovranno derivare da un’analisi indipendente, con l’obiettivo di garantire maggiore imparzialità e affidabilità.
Leggi l’articolo completo “xAI says it has fixed Grok 4’s problematic responses” su TechCrunch.
Immagine generata tramite DALL-E 3. Tutti i diritti sono riservati. Università di Torino (16/07/2025).

