C’è qualcosa di profondamente inquietante nel guardare un volto noto pronunciare parole che non ha mai detto. È il paradosso spettrale dei deepfake, tra le più recenti frontiere della manipolazione digitale. Ultima vittima di questo fenomeno è Silvia Sacchi, giornalista Rai, comparsa a sua insaputa in un finto servizio anti-vaccini che ha iniziato a circolare su Facebook e X (qui il link). Un video costruito con un livello di precisione tale che persino la stessa Sacchi, alla prima visione secondo quanto riportato da Il Corriere, ha faticato a riconoscere che quella non fosse davvero lei: “Mi sono riconosciuta anche in come mi toccavo i capelli”, ha dichiarato, sottolineando quanto il realismo tecnologico possa diventare pericolosamente persuasivo.
Nel filmato, insieme alla giornalista, compaiono anche il farmacologo Silvio Garattini e la professoressa Cristina Cattaneo, entrambi rappresentati mentre rilasciano dichiarazioni allarmanti sui presunti effetti collaterali dei vaccini anti-Covid. Il video, ovviamente, culminava con la promozione di un “miracoloso” preparato sotto forma di pillola da acquistare online, classico esempio di truffa mascherata da informazione sanitaria.
Il caso ha sollevato interrogativi non solo sull’efficacia dei controlli delle piattaforme social, che troppo spesso agiscono con ritardo, ma anche sulla percezione pubblica della realtà mediatica. Se un contenuto simile viene presentato con il linguaggio del telegiornale, in un formato familiare e rassicurante, il confine tra vero e falso diventa labile, soprattutto per chi non ha gli strumenti per decifrare le dinamiche della disinformazione online.

Il DeepFake in questione come minaccia che tocca giornalismo, medicina e dignità personale
Silvia Sacchi non è l’unica ad aver subito questo tipo di aggressione digitale. Prima di lei, anche Valentina Bisti è stata protagonista di un deepfake in cui si annunciava il presunto omicidio dell’infettivologo Matteo Bassetti per “rivelazioni scomode”. Proprio Bassetti denuncia da tempo questo tipo di narrazioni artefatte, sottolineando come dietro tali contenuti si nascondano veri e propri business illegali, tra vendite di prodotti contraffatti e campagne virali orchestrate. Ricordiamo anche il bacio deepfake tra Giorgia Meloni ed Elon Musk, che tra meme e satira, ha comunque sollevato discussioni e allarmi.
Sul fronte istituzionale, le reazioni non si sono fatte attendere. Filippo Anelli, presidente Fnomceo, definisce i deepfake “una vera e propria forma di violenza“, capace di distruggere la fiducia medico-paziente e colpire l’onore personale di chi viene coinvolto. Il timore è che sempre più cittadini possano essere tratti in inganno e convincersi che un medico stimato stia realmente promuovendo cure infondate. Anche Carlo Bartoli, presidente dell’Ordine dei Giornalisti, richiama l’attenzione sul ruolo cruciale delle fonti ufficiali, suggerendo che solo i canali delle testate giornalistiche garantiscano un’informazione affidabile in un panorama dove la Rete è diventata un “territorio a rischio”.
Dal punto di vista normativo, qualcosa finalmente si muove. Il governo ha recentemente approvato un disegno di legge che prevede pene da uno a cinque anni per chi diffonde contenuti generati artificialmente in modo ingannevole. Il provvedimento introduce l’articolo 612-quater del codice penale, imponendo anche l’obbligo di marcare i video deepfake come tali e di identificare gli utenti che li caricano.
Parallelamente, il Garante della Privacy ha pubblicato una guida per aiutare gli utenti a riconoscere i contenuti manipolati, segno che l’urgenza del fenomeno è ormai percepita anche a livello istituzionale. L’emergere di queste tecnologie richiede una risposta decisa e collettiva, da un lato la legislazione, dall’altro l’alfabetizzazione digitale. Perché in un mondo dove l’intelligenza artificiale può replicare volti e voci, l’unica vera difesa resta la consapevolezza critica.
