Mann (60) vergiftet sich wegen ChatGPT-Ratschlag

Elena Hatebur
Elena Hatebur

USA,

Nach monatelanger Einnahme von giftigem Natriumbromid muss ein Mann ins Spital. Zuvor hatte er sich bei ChatGPT nach einer Salz-Alternative erkundigt.

Alter Mann im Spital
Ein Ernährungs-Tipp von ChatGPT vergiftete einen 61-Jährigen. (Symbolbild) - keystone

Das Wichtigste in Kürze

  • Ein 60-jähriger Mann wurde mit einer Bromid-Vergiftung diagnostiziert.
  • Zuvor hatte er ChatGPT wegen Salz-Alternativen gefragt.
  • Die KI empfahl ihm, Speisesalz mit giftigem Natriumbromid zu ersetzen.

Antworten von ChatGPT sind mit Vorsicht zu geniessen. Dass das KI-Programm noch nicht auf dem Niveau eines Facharztes ist, musste ein 60-jähriger Mann auf die harte Tour erfahren.

Der Senior begab sich mit Verdacht auf eine Vergiftung in die Notfallstation, wie die US-Fachzeitschrift «Annals of Internal Medicine» schreibt. Zuvor hatte er über Hautveränderungen, Muskelbeschwerden und Paranoia geklagt.

Die ärztlichen Untersuchungen ergaben auffällige Blutwerte. Mehrere Laborwerte lagen im Argen – darunter Chlorid, Phosphat und der Säure-Base-Haushalt. Der Mann wies diverse Mängel auf.

ChatGPT-Empfehlung: Giftiges Natriumbromid statt Speisesalz

In den ersten 24 Stunden seines Aufenthalts äusserte er Paranoia, Halluzinationen und wurde nach einem Fluchtversuch zwangsfixiert.

Daraufhin wurde ihm Risperidon, ein Medikament, das bei Schizophrenie eingesetzt wird, verabreicht.

Als der Patient wieder ruhiger wurde, kam die Geschichte ans Licht. Er habe vernommen, dass Speisesalz ungesund sei. Motiviert, eine Alternative zu finden, wendete er sich mit seinem Anliegen an den KI-Chatbot ChatGPT.

Mit chemischem Halbwissen bat er die KI um einen Ersatz von Speisesalz. Dabei liess er sich auch von seinem ernährungswissenschaftlichen Studium im College inspirieren.

Nutzt du ChatGPT?

Das Programm bestätigte ihm, dass er Natriumchlorid mit Bromid ersetzen könnte. So nahm der Mann über drei Monate hinweg stark giftiges Natriumbromid ein – und nutzte es munter für seine Speisen.

Veraltete KI-Version genutzt

In der Fallstudie der Fachzeitschrift wird vermutet, dass der 60-Jährige eine veraltete KI-Version genutzt hatte.

Auch schien sein Prompt, also seine Frage, zu allgemein zu sein. Bromid war früher in vielen nicht-verschreibungspflichtigen Medikamenten, unter anderem gegen Schlaflosigkeit, enthalten.

Pillen auf einem Tisch
Bromid war früher in vielen Medikamenten enthalten, beispielsweise gegen Angstzustände oder Hysterie. (Symbolbild) - keystone

Der Kontext ist in solchen Fällen entscheidend. Anders als ausgebildete Fachpersonen, hakt ChatGPT nicht noch mal nach, wofür man Bromid nutzen möchte. In vielen Fällen ist dies aber eine entscheidende Frage.

Mehr zum Thema:

Kommentare

User #2552 (nicht angemeldet)

Weder der prompt noch die Intention des Menschen sind bekannt. Aber Hauptsache schön das framing gegen KI betreiben. Wir wissen weder was der Typ gefragt hat noch was die Antwort war - aber trotzdem ist der Presse eines klar: Maschine böse, Mensch = Opfer. Mensch Elena. Das kannst du doch besser.

User #1038 (nicht angemeldet)

Bei den naiven Skeptileptikern kann sowas schnell passieren 🤷‍♀️

Weiterlesen

chatgpt 5
8 Interaktionen
OpenAI
krebs
5 Interaktionen
Früherkennung
Alzheimer Demenz Medikamente Wirkung
7 Interaktionen
Im Frühstadium

MEHR IN NEWS

Business-Bereich im McDonald's
2 Interaktionen
«Business-Bereich»
Donald Trump
1 Interaktionen
Gipfel
FKK
5 Interaktionen
«Interesse ist da»

MEHR AUS USA

Trump will Putin nach D.C. einladen
267 Interaktionen
Alaska
Donald Trump
13 Interaktionen
In Washington
Elon Musk
3 Interaktionen
Musks KI-Unternehmen
-
80 Interaktionen
Kochshow-Trailer