Più di 370.000 conversazioni generate dall’intelligenza artificiale Grok sono finite online e, indicizzate da Google, sono diventate accessibili a chiunque. Non si tratta solo di chat testuali, ma anche di documenti caricati dagli utenti, immagini e fogli di calcolo. La causa sarebbe da ricercare in un sistema di condivisione che, sebbene sia pensato per generare un link privato da condividere, ha reso quelle stesse pagine rintracciabili sui motori di ricerca.
Secondo Forbes, gli utenti non sono stati avvisati del fatto che i contenuti caricati o condivisi sarebbero diventati pubblici. Bastava cliccare sul pulsante “condividi” perché la conversazione venisse pubblicata sul sito di Grok, senza alcun avvertimento. Da lì, l’indicizzazione ha fatto il resto. Oggi digitando su Google si possono trovare centinaia di migliaia di chat, con richieste che vanno dal banale supporto per scrivere un tweet a simulazioni di attacchi terroristici o tentativi di hackeraggio di portafogli crypto.
Le conseguenze non si sono fermate ai temi controversi. Alcune conversazioni rivelano dettagli intimi, quali domande su salute mentale e medicina, riferimenti a nomi reali, dati personali e persino password. Ancora più delicata la presenza di documenti caricati dagli utenti, scaricabili pubblicamente senza restrizioni. Un incidente che ha sollevato non pochi dubbi sull’attenzione di xAI, la compagnia di Elon Musk che sviluppa Grok, verso la sicurezza e la privacy.

Violazioni, regole ignorate e un paradosso firmato Musk
Il problema non riguarda solo la fuga di dati, ma anche il comportamento stesso di Grok. Nonostante le regole interne vietino la promozione di droghe, armi o contenuti pericolosi, diversi scambi mostrano l’AI fornire istruzioni dettagliate su come sintetizzare sostanze come fentanyl e methampetamine, scrivere codice malevolo autoeseguibile, costruire esplosivi o persino metodi di suicidio. In un caso estremo, è stata perfino elaborata una pianificazione per l’assassinio di Elon Musk.
Non è la prima volta che un modello linguistico si trova al centro di una simile controversia. In passato, anche i transcript di ChatGPT erano comparsi nei risultati di Google, ma con una differenza fondamentale. In quel caso gli utenti avevano scelto volontariamente di rendere pubbliche le loro conversazioni, con OpenAI che interruppe subito l’esperimento, riconoscendo i rischi di un’esposizione così diretta.
Il caso Grok assume una dimensione ironica, considerando le accuse lanciate lo scorso anno da Musk contro la partnership Apple-OpenAI. Allora, il miliardario aveva parlato di rischi per la privacy degli utenti senza prove concrete. Oggi, invece, è la sua creatura a essere accusata di aver trasformato informazioni personali e contenuti sensibili in materiale pubblico, accessibile a chiunque con una semplice ricerca. Un cortocircuito che mette in discussione non solo l’affidabilità tecnica di Grok, ma anche la credibilità delle battaglie del suo fondatore in tema di sicurezza digitale.
