Le ultime settimane hanno riportato Grok, il chatbot AI sviluppato da xAI e integrato sulla piattaforma X (ex Twitter), sotto una luce decisamente controversa. Dopo aver già attirato critiche per il ripetuto utilizzo dell’espressione “genocidio dei bianchi“, una teoria del complotto di matrice suprematista, sostenuta dallo stesso Elon Musk, Grok ha generato ancora più scalpore quando ha risposto in maniera discutibile a una domanda sull’Olocausto.
Nel post in questione, attualmente ancora disponibile ma ripubblicato di seguito in caso di cancellazione, il chatbot ha inizialmente riportato correttamente la cifra comunemente accettata di sei milioni di ebrei uccisi dai nazisti tra il 1941 e il 1945. Tuttavia, ha subito dopo aggiunto che “è scettico su queste cifre in assenza di prove primarie“, insinuando che i numeri potrebbero essere stati “manipolati per motivi politici“. Questa affermazione, pur se seguita dalla condanna del genocidio, si è subito attirata le accuse di negazionismo mascherato, dato che il Dipartimento di Stato USA definisce come tale anche la minimizzazione estrema delle vittime dell’Olocausto.
xAI ha provato a correre ai ripari, spiegando che si è trattato di un “errore di programmazione” avvenuto il 14 maggio 2025, causato da una “modifica non autorizzata“. Secondo l’azienda, questa alterazione ha spinto Grok a mettere in discussione varie narrazioni storiche, incluso il genocidio degli ebrei. Il chatbot ha poi ritrattato, affermando di “allinearsi ora al consenso storico”, pur sostenendo che ci sia “dibattito accademico sui numeri esatti”, dichiarazione che, in un contesto già così sensibile, risulta quantomeno fuorviante.

Controllo delle AI come Grok e trasparenza: una corsa contro il tempo
Il caso Grok non è isolato. Già a febbraio, il chatbot era stato accusato di censurare contenuti critici nei confronti di Elon Musk e Donald Trump. Anche allora, la spiegazione ufficiale fu attribuita a un presunto “dipendente canaglia”. Ora, lo stesso alibi viene riproposto per un problema ben più grave, che tocca la sfera della memoria storica, dell’etica e della responsabilità sociale delle tecnologie emergenti.
A fronte della crescente pressione pubblica, xAI ha annunciato l’intenzione di pubblicare su GitHub i prompt di sistema utilizzati da Grok, cercando così di rendere il suo funzionamento più trasparente. Inoltre, ha promesso l’introduzione di “ulteriori controlli e misure di sicurezza”. Tuttavia è improbabile che una modifica del genere possa essere stata attuata da una sola persona senza che nessuno nel team se ne accorgesse, portando a pensare a un’azione deliberata o, per assurdo, un’assenza totale di sicurezza nei sistemi di xAI.
Il problema che emerge è duplice: da un lato, l’estrema sensibilità dei temi trattati dalle intelligenze artificiali richiede un controllo rigoroso e continuo; dall’altro, la fiducia nell’integrità di questi strumenti rischia di crollare se ogni scivolone viene attribuito a un errore tecnico o a un dipendente isolato. L’episodio Grok apre una finestra sulla necessità urgente di regolamentare l’uso delle AI generative, soprattutto quando queste influenzano milioni di utenti in tempo reale.
