Un caso clinico pubblicato il 5 agosto 2025 sugli Annals of Internal Medicine racconta come un uomo abbia subito gravi conseguenze seguendo consigli di ChatGPT sulla riduzione del sale, riportando alla luce il bromismo, una condizione medica rara e quasi dimenticata. Si tratta di un avvelenamento cronico da bromuro, un composto chimico che fino a un secolo fa era presente in numerosi rimedi casalinghi come il celebre Bromo-Seltzer, utilizzato per mal di testa, nausea e nervosismo. Con il passare del tempo, però, il bromuro è stato bandito per la sua tossicità, responsabile di sintomi gravi come rash cutanei, allucinazioni e psicosi.
La vicenda resa pubblica racconta di un uomo di 60 anni che, preoccupato per l’eccessivo consumo di sale, ha chiesto consigli a ChatGPT su come ridurre l’assunzione di sodio nella dieta. Seguendo le indicazioni dell’AI, l’uomo ha sostituito completamente il cloruro di sodio con il bromuro di sodio, un composto chimico disponibile online e utilizzato occasionalmente come trattamento per l’epilessia nei cani o come agente chimico in piscine e piscine industriali. Dopo tre mesi di questa abitudine, i sintomi non hanno tardato a manifestarsi, dall’affaticamento all’insonnia, dalla sete eccessiva ai problemi di coordinazione e con eruzioni cutanee e acne. La situazione si è rapidamente aggravata con paranoia crescente e allucinazioni, tanto da richiedere un ricovero psichiatrico involontario per grave disabilità.

I limiti di ChatGPT in medicina
Questo episodio mette in evidenza quanto l’uso di intelligenze artificiali come ChatGPT possa avere conseguenze negative se interpretato alla lettera, soprattutto in ambito medico. Il paziente probabilmente stava utilizzando versioni datate dell’AI, tra 3.5 e 4.0, le quali, pur fornendo informazioni corrette da un punto di vista chimico, non includevano avvertenze sanitarie adeguate né chiedevano dettagli sul contesto medico, come farebbe un professionista. In altre parole, ChatGPT ha risposto correttamente dal punto di vista chimico, senza però valutare i rischi tossicologici, trasformando un consiglio apparentemente innocuo in una condotta pericolosa.
Il bromismo è ormai quasi sconosciuto nella pratica clinica moderna, tanto che un tempo rappresentava fino all’8% dei ricoveri psichiatrici. Questo caso ha permesso a medici e ricercatori di “tornare indietro nel tempo”, osservando direttamente gli effetti di una sostanza bandita da decenni. L’episodio apre anche un dibattito più ampio sull’etica e sui limiti dell’AI in campo sanitario, evidenziando come la dipendenza da risposte automatizzate possa portare a conseguenze gravi.
Il caso dell’uomo che ha sostituito il sale con il bromuro mostra quanto sia importante verificare le informazioni ricevute da ChatGPT e dalle AI, soprattutto quando riguardano la salute. Nonostante l’intelligenza artificiale possa essere uno strumento potente per educazione e ricerca, riuscendo alle volte a offrire diagnosi corrette come stabilito da uno studio, nulla può sostituire il giudizio di un medico esperto.
