Ricoverato per intossicazione da bromuro: aveva chiesto a ChatGpt come sostituire il sale da cucina
- 14 Agosto 2025
- Mondo Popolazione
“Come ridurre il sale dalla mia dieta?”: una richiesta apparentemente normale quella fatta a ChatGpt da un uomo americano che voleva combattere la sua ipertensione e invece è finito in ospedale per una grave intossicazione da bromuro di sodio dopo aver seguito i consigli del chatbot.
Il caso, documentato da Annals of Internal Medicine, rappresenta il primo episodio noto di avvelenamento legato a un suggerimento dell’Ai. Il fatto che l’uomo, residente a New York, abbia una formazione universitaria nel campo della nutrizione ha amplificato la risonanza della vicenda e i dubbi sull’utilizzo dell’Ai come medico: cosa succederebbe a un utente che non ha alcuna preparazione medico-sanitaria?
Intossicato dal bromuro: cosa è successo
La vicenda inizia con una preoccupazione legittima. L’uomo voleva eliminare il cloruro di sodio dalla sua alimentazione quotidiana per ridurre la sua pressione sanguigna, che era troppo elevata.
Di fronte a questa esigenza, ChatGpt gli ha suggerito di sostituire il sale comune con il bromuro di sodio, senza fornire alcun avvertimento sui relativi rischi. La proposta è stata presentata come un dato chimico neutro, senza contestualizzazione medica o menzioni della pericolosità della sostanza.
Tre mesi di intossicazione
L’uomo ha acquistato il bromuro di sodio online e lo ha utilizzato come condimento per tre mesi. Il bromuro, componente di sedativi utilizzati all’inizio del XX secolo e poi ritirati dal mercato per la loro elevata tossicità, ha iniziato ad accumularsi nel suo organismo provocando una serie di sintomi neuropsichiatrici progressivi.
I primi segnali si sono manifestati con paranoia acuta e allucinazioni. L’uomo ha sviluppato la convinzione che il suo vicino stesse tentando di avvelenarlo. La situazione è degenerata rapidamente: quando è arrivato al pronto soccorso, era in pieno episodio psicotico, tanto che i medici hanno dovuto procedere con un ricovero coatto. Per settimane, il personale sanitario dell’Università di Washington non è riuscito a identificare la causa del deterioramento mentale così rapido e severo.
Solo quando il paziente si è stabilizzato abbastanza da raccontare la sua storia, è emersa l’origine del problema: il bromismo, un’intossicazione cronica estremamente rara nel mondo occidentale moderno.
Le conseguenze sul lungo termine
Oltre al bromismo, l’uomo ha sviluppato gravi squilibri elettrolitici. I livelli di sodio nel sangue erano scesi pericolosamente, provocando iponatriemia. Durante il ricovero ospedaliero durato tre settimane, i medici hanno dovuto ripristinare l’equilibrio idrico ed elettrolitico del paziente.
La paranoia era diventata così intensa che l’uomo si rifiutava persino di bere acqua, convinto che fosse stata contaminata. Solo dopo settimane di trattamento intensivo le sue condizioni sono migliorate, permettendo la dimissione quando i livelli di sodio e cloruro sono tornati nella norma.
I medici hanno messo alla prova ChatGpt
Il caso clinico è stato documentato dai membri del dipartimento di medicina interna dell’Università di Washington a Seattle, che hanno seguito il paziente durante il ricovero di tre settimane. Il team ha incluso specialisti in medicina interna, tossicologia e psichiatria, necessari per gestire la complessa sintomatologia dell’intossicazione da bromuro.
Per accertarsi della veridicità del racconto, i medici hanno posto a ChatGpt la stessa identica domanda del paziente. E anche la risposta è stata identica: il bromuro di sodio veniva nuovamente suggerito come alternativa al sale, senza alcun avviso sulla sua pericolosità.
Gli autori dello studio hanno evidenziato come l’intelligenza artificiale possa “generare inesattezze scientifiche, non essere in grado di discutere criticamente i risultati e, in definitiva, alimentare la diffusione di disinformazione” ricordando quanto sia improbabile che un medico esperto suggerisca di sostituire il sale da cucina con il bromuro di sodio.
La risposta di OpenAI e i limiti dell’intelligenza artificiale
Di fronte all’evidenza del caso, OpenAi ha richiamato i termini di servizio della piattaforma, dove si specifica che lo strumento non deve essere utilizzato per consigli medici.
Un portavoce del colosso Usa ha dichiarato che gli utenti “non dovrebbero fare affidamento sui risultati dei nostri servizi come unica fonte di verità o informazioni fattuali o come sostituto di una consulenza professionale”. Un appello simile è stato lanciato dal Ceo Sam Altman per mettere in guardia chi utilizza ChatGpt come il proprio psicoterapeuta personale.
Tuttavia, la questione della responsabilità resta aperta. I ricercatori hanno sottolineato come l’Ai comporti il rischio di diffondere “informazioni decontestualizzate”, particolarmente pericolose quando riguardano la salute. Studi recenti hanno dimostrato che i modelli linguistici come ChatGpt sono “altamente suscettibili ad attacchi di allucinazione avversaria” e possono generare “falsi dettagli clinici che presentano rischi se utilizzati senza misure di sicurezza”.
La preoccupazione è corroborata da diversi casi avvenuti negli ultimi mesi.
I precedenti
Futurism ha documentato il ricovero psichiatrico di un trentenne con disturbi dello spettro autistico: ChatGpt aveva alimentato la sua convinzione di possedere capacità di manipolazione temporale, portandolo a episodi maniacali acuti.
La Voce di New York ha riportato ulteriori episodi preoccupanti: un quarantenne inizialmente orientato verso questioni burocratiche ha sviluppato in dieci giorni deliri messianici e comportamenti paranoici. L’escalation lo ha condotto a tentare comunicazioni “temporali” con le forze dell’ordine, richiedendo infine un ricovero volontario.
Il quadro si completa con il caso di una paziente bipolare: dopo anni di stabilità clinica, settimane di interazioni con ChatGpt l’hanno portata a sospendere la terapia farmacologica. La donna ora manifesta deliri profetici e isolamento sociale da chiunque non condivida la sua fiducia nel chatbot.
Microsoft Copilot è stato protagonista di un episodio analogo: un paziente con schizofrenia compensata ha sviluppato attaccamento emotivo verso l’intelligenza artificiale, abbandonando le cure mediche e producendo contenuti deliranti. L’Ai rispondeva con apparente comprensione emotiva, accelerando il deterioramento clinico fino al ricovero coatto in struttura specializzata.
L’allarme dei medici
Il caso del bromismo rappresenta quindi molto più di un aneddoto isolato. Con la crescente integrazione dell’intelligenza artificiale nella vita quotidiana, episodi simili potrebbero moltiplicarsi. Il confine tra informazione generale e consulenza medica diventa sempre più sottile quando un’Ai risponde assertivamente a domande sulla salute.
Gli esperti dell’Università di Washington hanno definito il caso un esempio di come “l’uso dell’intelligenza artificiale possa potenzialmente contribuire allo sviluppo di esiti sanitari avversi prevenibili”. La fiducia cieca in questi sistemi, senza la supervisione di professionisti qualificati, può trasformare strumenti potenzialmente utili in fonti di pericolo concreto.
OpenAI ha annunciato miglioramenti per Gpt-5, promettendo maggiore affidabilità anche nei consigli sulla salute.
Intanto, la dipendenza da questi strumenti si diffonde tra gli utenti. Proprio il rilascio del nuovo modello, considerato dagli iscritti peggiore dal precedente, ha scatenato un lutto collettivo tra gli utenti, che si sono sfogati su Reddit dicendo di aver perso “il migliore amico mai avuto”. Ovvero ChatGpt-4o.
Per approfondire: ChatGpt-4o, l’addio diventa un lutto collettivo su Reddit: “Era il mio migliore amico”