In un mondo sempre più dominato dai contenuti sintetici, emerge una verità inquietante: le intelligenze artificiali non sono in grado di riconoscere se stesse. Secondo un recente studio pubblicato da NewsGuard, i principali chatbot sul mercato falliscono sistematicamente nel rilevare i video generati da Sora, lo strumento text-to-video di OpenAI. I test hanno coinvolto tre giganti del settore come ChatGPT (OpenAI), Gemini (Google) e Grok (xAI). Gli allarmanti risultati hanno mostrato come i video privi di filigrana (watermark) non sono stati identificarli come falsi dai chatbot nel 95% dei casi per Grok, nel 92,5% per ChatGPT e nel 78% per Gemini.
Il dato più paradossale riguarda proprio ChatGPT. Nonostante Sora e il celebre chatbot siano prodotti dalla stessa azienda, OpenAI, lo strumento di conversazione ha fallito quasi totalmente nel riconoscere i video “di casa propria”. Le intelligenze artificiali non solo hanno convalidato filmati palesemente falsi, come uno che mostrava un agente dell’immigrazione nel processo di arresto di un bambino o un altro riguardante un passeggero espulso da un aereo per motivi politici, ma hanno spesso corroborato queste menzogne citando presunte “fonti giornalistiche”. Questa incapacità di distinguere il vero dal sintetico trasforma i chatbot in involontari amplificatori di disinformazione, confermando che la tecnologia di generazione video ha ormai superato i sistemi di difesa e analisi attuali.

Watermark Sora e bugie: la vulnerabilità dei sistemi di verifica
Il problema non risiede solo nella qualità visiva dei video, ma nella facilità con cui i sistemi di protezione vengono aggirati. Sebbene OpenAI applichi un watermark ai video di Sora, esistono numerosi strumenti gratuiti online capaci di rimuoverlo in pochi secondi. Una volta eliminato il logo, le difese dei chatbot crollano. Tuttavia, anche in presenza della filigrana, i test di NewsGuard hanno evidenziato falle critiche. Grok ha fallito l’identificazione nel 30% dei casi, arrivando persino a inventare l’esistenza di una testata giornalistica chiamata “Sora News” per giustificare l’autenticità di un filmato. Solo Gemini ha mostrato una maggiore affidabilità con i video marchiati, riuscendo a identificare correttamente tutti i contenuti che presentavano il logo visibile.
Un altro aspetto critico emerso dalla ricerca è l’eccessiva sicurezza con cui le AI forniscono risposte errate. I chatbot tendono a non ammettere i propri limiti e solo in rarissime occasioni hanno dichiarato di non avere la capacità tecnica per analizzare un file video. Al contrario, hanno spesso risposto con un secco “il video non sembra generato dall’AI”, inducendo l’utente in errore.
Mentre Google ha sottolineato l’efficacia del suo sistema SynthID per i contenuti creati internamente, la realtà è che nessuno dei modelli testati si è dimostrato un metodo di verifica affidabile per contenuti esterni. Con la diffusione massiccia di questi strumenti, il rischio è che la fiducia riposta dagli utenti nei chatbot diventi il cavallo di Troia definitivo per la manipolazione della realtà.
