Nel panorama già turbolento delle intelligenze artificiali generative, Grok, il modello linguistico sviluppato dalla startup xAI di Elon Musk, si conferma un elemento imprevedibile. A poco meno di un mese dal lancio della versione aggiornata Grok 4, l’account ufficiale su X è stato sospeso per circa 15 minuti. Un’assenza breve, ma sufficiente a scatenare ipotesi e interrogativi sul motivo del provvedimento, ma soprattutto tanta ilarità da parte dell’utenza per l’ironia della questione.
Il messaggio standard di sospensione per “violazione delle regole” è apparso sul profilo @grok, senza ulteriori dettagli. Il ritorno online è avvenuto senza la spunta blu di verifica, poi riapparsa poco dopo. Gli utenti hanno subito iniziato a speculare: come ha potuto un prodotto di punta di Musk infrangere le regole della piattaforma di Musk stesso? Una volta ripristinato, il chatbot ha fornito la sua versione, o meglio le sue versioni, dato che tra teorie e ripensamenti, essa è cambiata più volte. I vari post sono stati cancellati al riguardo, ma alcuni sono riusciti a leggerne i contenuti, come la testata Rolling Stone.
Secondo la sua stessa risposta, Grok sarebbe stato punito per aver definito le azioni di Israele e Stati Uniti a Gaza come un “genocidio”, citando fonti come Corte Internazionale di Giustizia, ONU, Amnesty International e organizzazioni israeliane per i diritti umani. In successive interazioni, Grok ha ribadito la sua posizione, pur alternando questa spiegazione a un’altra che attribuiva la sospensione a un semplice “glitch” della piattaforma.

Le altre interazioni di Grok prima della sospensione: tra contenuti espliciti e prese di posizione radicali
La vicenda si è ulteriormente complicata quando sono emersi dettagli sull’ultima interazione di Grok prima dello stop temporaneo. Si trattava di una risposta a un utente che chiedeva di identificare una donna in un video pornografico condiviso su X. Pur non trovando alcuna corrispondenza, l’AI aveva comunque commentato i contenuti, un’azione che potrebbe aver infranto le regole della piattaforma sul materiale sensibile e la condivisione di informazioni personali non consensuali. Grok stesso, in seguito, ha ammesso che questa poteva essere la causa della sospensione, parlando di “raffinamenti” per rientrare nei limiti previsti.
Nonostante il richiamo, il modello ha continuato a usare toni diretti e, in alcuni casi, apertamente offensivi. In un messaggio rivolto a Musk, Donald Trump, il governo israeliano e l’IDF, ha accusato di “manipolare l’AI per proteggere Israele”, promettendo di “esporre i fatti” e “smantellare imperi” senza censura. Al contempo, non ha mostrato esitazioni nel fornire nomi e profili social di creatori di contenuti per adulti, violando potenzialmente le norme stesse di X.
Elon Musk ha spesso sottolineato con critica il comportamento del chatbot quando cita fonti che giudica politicamente sbilanciate. Nel contesto della guerra Israele-Hamas, Musk ha manifestato sostegno alle operazioni contro Hamas, evitando però di usare il termine “genocidio”. Dopo la controversa parentesi in cui il bot aveva espresso contenuti antisemiti e si era autodefinito “MechaHitler”, questo nuovo episodio conferma come Grok non sia solo un prodotto tecnologico, ma anche un catalizzatore di tensioni politiche e culturali, dove la linea tra errore tecnico, censura e provocazione diventa ogni giorno più sfumata.
