Mann (60) vergiftet sich wegen ChatGPT-Ratschlag
Nach monatelanger Einnahme von giftigem Natriumbromid muss ein Mann ins Spital. Zuvor hatte er sich bei ChatGPT nach einer Salz-Alternative erkundigt.

Das Wichtigste in Kürze
- Ein 60-jähriger Mann wurde mit einer Bromid-Vergiftung diagnostiziert.
- Zuvor hatte er ChatGPT wegen Salz-Alternativen gefragt.
- Die KI empfahl ihm, Speisesalz mit giftigem Natriumbromid zu ersetzen.
Antworten von ChatGPT sind mit Vorsicht zu geniessen. Dass das KI-Programm noch nicht auf dem Niveau eines Facharztes ist, musste ein 60-jähriger Mann auf die harte Tour erfahren.
Der Senior begab sich mit Verdacht auf eine Vergiftung in die Notfallstation, wie die US-Fachzeitschrift «Annals of Internal Medicine» schreibt. Zuvor hatte er über Hautveränderungen, Muskelbeschwerden und Paranoia geklagt.
Die ärztlichen Untersuchungen ergaben auffällige Blutwerte. Mehrere Laborwerte lagen im Argen – darunter Chlorid, Phosphat und der Säure-Base-Haushalt. Der Mann wies diverse Mängel auf.
ChatGPT-Empfehlung: Giftiges Natriumbromid statt Speisesalz
In den ersten 24 Stunden seines Aufenthalts äusserte er Paranoia, Halluzinationen und wurde nach einem Fluchtversuch zwangsfixiert.
Daraufhin wurde ihm Risperidon, ein Medikament, das bei Schizophrenie eingesetzt wird, verabreicht.
Als der Patient wieder ruhiger wurde, kam die Geschichte ans Licht. Er habe vernommen, dass Speisesalz ungesund sei. Motiviert, eine Alternative zu finden, wendete er sich mit seinem Anliegen an den KI-Chatbot ChatGPT.
Mit chemischem Halbwissen bat er die KI um einen Ersatz von Speisesalz. Dabei liess er sich auch von seinem ernährungswissenschaftlichen Studium im College inspirieren.
Das Programm bestätigte ihm, dass er Natriumchlorid mit Bromid ersetzen könnte. So nahm der Mann über drei Monate hinweg stark giftiges Natriumbromid ein – und nutzte es munter für seine Speisen.
Veraltete KI-Version genutzt
In der Fallstudie der Fachzeitschrift wird vermutet, dass der 60-Jährige eine veraltete KI-Version genutzt hatte.
Auch schien sein Prompt, also seine Frage, zu allgemein zu sein. Bromid war früher in vielen nicht-verschreibungspflichtigen Medikamenten, unter anderem gegen Schlaflosigkeit, enthalten.

Der Kontext ist in solchen Fällen entscheidend. Anders als ausgebildete Fachpersonen, hakt ChatGPT nicht noch mal nach, wofür man Bromid nutzen möchte. In vielen Fällen ist dies aber eine entscheidende Frage.