Hij wilde gewoon gezonder leven. Minder zout eten, zijn bloeddruk onder controle houden. Dus deed hij wat steeds meer mensen doen: hij vroeg ChatGPT om hulp. De kunstmatige intelligentie suggereerde een alternatief voor tafelzout. Een tip die levensgevaarlijk bleek.
Een onschuldig begin
De man, begin zestig, was geen leek als het ging om voeding. In het verleden had hij voedingkunde gestudeerd, en dat gaf hem vertrouwen om zelf wat aanpassingen te doen in zijn dieet. Omdat hij zich zorgen maakte over zijn zoutinname – met name over natriumchloride – ging hij op zoek naar alternatieven.
Hij vroeg het ChatGPT, dat hem informeerde over natriumbromide als mogelijke vervanger. De chatbot meldde er niet bij dat deze stof allang niet meer veilig wordt geacht voor menselijke consumptie.
Online kocht hij een potje. Tafelzout eruit, bromidezout erin.
Man sought diet advice from ChatGPT and ended up with 'bromide intoxication,' which caused hallucinations and paranoiaA case report describes an incident in which a man seeking to make a dietary change consulted ChatGPT and later developed "bromism." |
Steeds vreemdere klachten
Aanvankelijk leek het goed te gaan. Maar na enkele weken begon hij zich moe en duizelig te voelen. Hij sliep slecht. Zijn huid werd vreemd: puistjes, rode vlekjes. Hij kreeg een droge mond, was voortdurend dorstig, maar had angst om te drinken.
Hij begon mensen te wantrouwen, zag dingen die er niet waren, hoorde stemmen die niemand anders hoorde. Paranoia, hallucinaties. Zijn gedrag werd zo verontrustend dat hij uiteindelijk werd opgenomen op de spoedeisende hulp.
Man consults ChatGPT for diet advice, three months later diagnosed with bromide intoxication: Know what it is and how serious it can get | - Times of IndiaA man seeking a healthier diet consulted ChatGPT for a salt alternative and was advised to use sodium bromide. After three months, he landed in the em |
Een raadselachtige diagnose
De eerste bloedresultaten toonden een verhoogd chloridegehalte. Artsen stonden voor een raadsel. Totdat iemand opmerkte dat de metingen verstoord konden zijn door een andere stof: bromide.
Na overleg met het antigifcentrum viel het kwartje: de man leed aan bromism, een zeldzame vergiftiging met bromide die vroeger voorkwam bij het gebruik van bepaalde medicijnen. Het is een aandoening die artsen vandaag de dag nog nauwelijks zien. En hier was het: veroorzaakt door dieetadvies van een AI.
Drie weken ziekenhuis, een wijze les rijker
De man kreeg intraveneus vocht, elektrolyten en antipsychotica. Na drie weken krabbelde hij langzaam weer op. Zijn symptomen verdwenen geleidelijk, en bij controle twee weken na ontslag voelde hij zich opnieuw helder.
Maar de ervaring liet diepe sporen na. Niet alleen fysiek, maar ook mentaal. Hoe had het zover kunnen komen?
AI is geen dokter
Medisch experts zijn het erover eens: geen enkele arts had ooit het advies gegeven om natriumchloride te vervangen door natriumbromide. ChatGPT bedoelde het misschien niet kwaad, maar het systeem heeft geen oordeelsvermogen, geen klinische context.
OpenAI, het bedrijf achter ChatGPT, benadrukt dat hun systeem geen medisch advies mag vervangen. Toch blijkt in de praktijk dat veel mensen het wél zo gebruiken. En dat kan, zoals dit verhaal aantoont, levensgevaarlijk zijn.
Man poisons himself after taking ChatGPT’s dietary adviceA 60-year-old man accidentally poisoned himself after replacing salt (sodium chloride) with sodium bromide after taking ChatGPT's dietary advice. |