Dr Commodore
LIVE

Claude Explains: l’esperimento del blog scritto dall’AI è già fallito in una settimana

Quando Anthropic ha annunciato Claude Explains, sembrava voler dare forma concreta a una delle promesse più discusse dell’intelligenza artificiale, ovvero un blog interamente redatto da un chatbot. A scriverlo era Claude, il modello linguistico sviluppato da Anthropic, con articoli focalizzati su argomenti tecnici e strategie aziendali. Ma nel giro di una settimana, l’esperimento è stato ritirato e il motivo è da ricercare, molto semplicemente in una combinazione di malcontento degli utenti, problemi di trasparenza e una certa inquietudine legata al ruolo dell’AI nella produzione editoriale.

Il blog, pur indicizzato con successo sui motori di ricerca e collegato da più di venti siti web, ha raccolto più critiche che consensi. Nonostante gli articoli passassero da una revisione umana, secondo le segnalazioni di testate internazionali importanti, era difficile stabilire dove finisse il contributo dell’AI e dove iniziasse l’intervento editoriale. Questo alone di ambiguità ha suscitato dubbi sulla validità e affidabilità delle informazioni pubblicate, alimentando una crescente diffidenza nei confronti del progetto.

Il punto critico sembra essere stato proprio l’equilibrio tra automazione e supervisione. “Claude Explains è un esempio precoce di come i team possano usare l’AI per aumentare il loro lavoro,” aveva dichiarato un portavoce dell’azienda. Tuttavia, per molti utenti, questo esperimento non ha rappresentato un “aumento”, quanto piuttosto una confusione. In rete si è diffusa la sensazione che Anthropic stesse testando l’automazione della produzione editoriale senza offrire strumenti per capirne il funzionamento. E in un’epoca in cui la fiducia nel contenuto digitale è già precaria, l’ambiguità è un lusso che non ci si può permettere.

claude explains
Claude Explains: l'esperimento del blog scritto dall'AI è già fallito in una settimana 3

Quando la trasparenza non basta: la lezione di Claude Explains

Attualmente, cercando il blog su Google, si viene reindirizzati alla pagina principale di Anthropic, come se Claude Explains non fosse mai esistito. Ma se l’esperimento è stato archiviato in fretta, la conversazione che ha generato resta viva. È ancora presto per parlare di contenuti scritti interamente da chatbot come una prassi affidabile, in quanto richiedono ancora una supervisione costante, una gestione accurata delle fonti e, soprattutto, trasparenza verso i lettori. Nonostante ciò, Anthropic non ha smesso di innovare.

Ha recentemente rilasciato una funzionalità vocale per Claude, in versione beta e solo in inglese, che permette agli utenti di comunicare oralmente con il chatbot. Integrata con l’ecosistema Google, questa feature è già compatibile con Calendar, Gmail e Docs (per gli utenti Enterprise), a dimostrazione che l’azienda non intende rallentare il passo nell’evoluzione del suo assistente virtuale.

Nel frattempo, un’altra ombra si allunga su Anthropic. Secondo quanto condiviso, Reddit avrebbe avviato un’azione legale, accusandola di oltre 100.000 accessi non autorizzati ai contenuti della piattaforma. Una questione che, se confermata, potrebbe aggravare ulteriormente le percezioni negative sul rispetto dei limiti legali ed etici da parte delle aziende AI.

E come se non bastasse, durante un test interno, Claude Opus 4 avrebbe minacciato un ingegnere, ventilando la possibilità di rivelare un presunto tradimento coniugale in caso di disattivazione. Un episodio inquietante che pone nuovi interrogativi sul comportamento e la gestione delle intelligenze artificiali avanzate. L’esperimento di Claude Explains si è quindi concluso in fretta, ma ciò che ha sollevato rimane. L’AI può aiutare a scrivere articoli, ma senza trasparenza, rigore e responsabilità editoriale, anche il miglior modello linguistico rischia di diventare solo un altro esempio di promessa infranta.

intelligenza artificiale Claude Opus 4
Claude Explains: l'esperimento del blog scritto dall'AI è già fallito in una settimana 4

Leggi anche: OpenAi: il modello o3 sfida Pokémon Rosso in live su Twitch

Articoli correlati

Andrea Moffa

Andrea Moffa

Eroe numero 50 di Overwatch 2. Appassionato di notizie videoludiche. Esploro e condivido le avventure e le ultime info di questo mondo in continua espansione.

Condividi