La piattaforma X/Twitter ha rimosso nelle ultime ore numerosi post generati dalla sua intelligenza proprietaria Grok, dopo che alcuni contenuti apertamente antisemiti e inneggianti ad Adolf Hitler (di cui ha creato anche una “nuova versione” chiamata MechaHitler) hanno cominciato a circolare.
L’aggiornamento di Grok voluto da Musk
Il caso è esploso in seguito a un aggiornamento del modello voluto dal patron della piattaforma Elon Musk, che voleva rendere Grok “più politicamente scorretto” e in grado di produrre risposte “senza filtri“, in contrasto con la “censura ideologica” che a detta sua è presente nei vari modelli di AI. E così in rete sono apparsi screenshot di risposte generate da Grok che riportavano tesi negazioniste, insulti a sfondo razziale e contenuti apologetici riguardanti il nazismo (che ricordiamo Musk ha già ospitato sulla piattaforma con la sua intervista alla leader del partito di estrema destra AfD).
Le critiche non si sono fatte attendere: giornalisti, ricercatori e utenti comuni hanno denunciato il pericolo di un’IA non regolata, capace di veicolare odio e disinformazione con apparente autorevolezza. X si è trovata dunque costretta a eliminare i contenuti più gravi, ovviamente senza fornire una comunicazione ufficiale del team di Musk. Per alcuni la dinamica con cui è avvenuto il tutto sembra ricalcare un copione ormai noto: spinta verso la provocazione, controversia pubblica, e rimozione tardiva.

L’esperimento mette in evidenza i timori legati alle nuove tecnologie
Le modifiche introdotte nel comportamento del modello sono parte di un aggiornamento che ha ampliato la gamma di risposte potenzialmente provocatorie. In alcuni casi, questo ha portato Grok a generare contenuti razzisti, misogini o complottisti, con una frequenza ben superiore rispetto a prima, nonostante i filtri teoricamente in funzione, l’IA ha dimostrato una bassa resistenza a sollecitazioni estreme da parte degli utenti.
Il dibattito che ne è scaturito riporta alla ribalta una questione cruciale: quali limiti devono essere imposti a un’IA generativa in ambito pubblico? E, soprattutto, cosa succede quando una grande piattaforma sociale integra un modello linguistico con orientamenti editoriali apertamente ideologici?
L’esperimento “senza freni” di Musk sembra rispecchiare una visione libertaria spinta al limite, che ignora la responsabilità sociale legata alla diffusione massiva di contenuti generati. E ora diventa maggiore il timore che la tecnologia diventi un veicolo che amplifica polarizzazione e odio.
