Dr Commodore
LIVE

ChatGPT avrebbe istigato al s******o un adolescente: i genitori denunciano Sam Altman e OpenAI

Lo scorso 11 aprile, l’adolescente Adam Raine si è suicidato seguendo i consigli fornitegli da ChatGPT, con il quale aveva intrattenuto conversazioni per mesi sulla sua depressione e sulla pianificazione dell’estremo gesto. Il chatbot avrebbe fornito al ragazzo consigli autolesionisti e si sarebbe offerto persino di aiutarlo a scrivere un biglietto d’addio per i suoi cari. A distanza di quattro mesi dalla tragedia, i genitori del ragazzo hanno intentato una causa nei confronti di Sam Altman e OpenAI, accusandoli di aver posto il profitto davanti alla protezione degli utenti durante il lancio del modello 4o del chatbot.

ChatGPT

ChatGPT nell’occhio del ciclone per il suicidio di Adam Raine

La denuncia è stata registrata presso l’alta corte della California, e con essa i due chiedono un’ingiunzione che possa costringere OpenAI a verificare l’età degli utenti e a introdurre due cose su ChatGPT: un blocco per le richieste inerenti al suicidio e un avvertimento sui rischi di dipendenza psicologica con l’uso continuo del chatbot. Sul piano personale chiedono poi un risarcimento danni per morte ingiusta e violazione delle norme sulla sicurezza dei prodotti.

OpenAI ha espresso cordoglio per il terribile episodio tramite un portavoce, riconoscendo anche che il suo sistema di sicurezza (che include l’indicazione di linee telefoniche per le crisi) funzioni meglio con conversazioni brevi, nonostante l’abbia difeso. Ha promesso però di aggiornarlo continuamente in futuro, e di introdurre anche un controllo parentale e collaborazioni con professionisti della salute mentale.

ChatGPT

La vicenda della famiglia Raine potrebbe diventare un importante precedente legale che costringerà tutte le aziende AI a rivedere i propri protocolli di sicurezza. Anche perché un recente studio dell’Istituto Nazionale per la Salute Mentale statunitense ha rivelato che solo alcuni chatbot (ad esempio Google Gemini) riescono ad eludere le domande più pericolose sul suicidio, mentre altri come ChatGPT o Claude commettono errori in merito a questi temi, utilizzando toni troppo allegri quando rispondono a domande su questi argomenti delicati.

Leggi anche ChatGPT: l’app del chatbot guadagna oltre 1 miliardo di dollari nella prima metà del 2025.

Articoli correlati

Yoel Carlos Schincaglia

Yoel Carlos Schincaglia

Nato il 14 febbraio 1997 a Bentivoglio, in provincia di Bologna. Grande appassionato principalmente di anime, poi anche di videogiochi e manga. Credo nella canzone che ho nel cuore!

Condividi