
Brom statt Salz – wie ChatGPT zur Psychose führte Ein 60-Jähriger folgt dem Rat der KI und landet in der Psychiatrie. Wie konnte das passieren? Kurzfassung | Andreas Becker, 13.08.25
gpt-image-1 | All-AI.de EINLEITUNG Ein 60-Jähriger wollte gesünder leben und weniger Salz konsumieren. Statt Ernährungsexperten fragte er ChatGPT – und erhielt eine gefährliche Empfehlung: Natriumchlorid durch Natriumbromid zu ersetzen. Monate später landete er mit Halluzinationen, Paranoia und akuter Psychose im Krankenhaus. Wie konnte ein Chatbot aus einer simplen Gesundheitsfrage einen toxischen Selbstversuch machen? NEWS Ein harmloser Wunsch, eine toxische Antwort Ausgangspunkt war der Plan, Chlorid (also Salz) aus der Ernährung zu streichen – eine Idee, die medizinisch bereits fragwürdig ist. Doch der Chatbot schlug offenbar vor, Natriumchlorid durch Natriumbromid zu ersetzen – ein Stoff, der chemisch ähnlich aussieht, toxikologisch aber eine andere Kategorie darstellt. Der Mann nutzte das Bromid-Salz über Monate hinweg. Symptome wie Schlaflosigkeit, Wahnvorstellungen und Desorientierung entwickelten sich schleichend – typisch für Bromismus, ein heute seltenes, früher aber verbreitetes Krankheitsbild. Erst im Krankenhaus erkannte man den Zusammenhang, weil Laborwerte durch Bromid verfälscht wurden und psychiatrische Symptome im Vordergrund standen. Ein Krankheitsbild aus der Versenkung Bromismus war im frühen 20. Jahrhundert keine Seltenheit. Bromid kam als Bestandteil von Beruhigungsmitteln zum Einsatz und wurde erst später wegen seiner Nebenwirkungen verbannt. Typisch sind neurologische und dermatologische Auffälligkeiten, etwa Akneausbrüche oder Konzentrationsstörungen. Gerade weil Bromid heute kaum noch in Lebensmitteln oder Medikamenten vorkommt, war die Diagnose schwierig. Die Kombination aus diffuser Symptomatik und chemischer Laborverzerrung täuschte zunächst in Richtung rein psychiatrischer Erkrankung – bis die Herkunft des Würzsalzes zur Sprache kam. KI kennt keine Dosis – und keinen Kontext Im Nachgang testeten die behandelnden Ärzte ChatGPT selbst. Ergebnis: Das Modell nannte Bromid als möglichen Ersatz für Chlorid – ohne Warnung vor toxischer Wirkung oder Verzehr. Genau hier liegt das strukturelle Problem: Sprachmodelle kombinieren Begriffe, sie verstehen sie nicht. Das erzeugt plausible, aber potenziell gefährliche Antworten. Besonders in Gesundheitsfragen reicht sprachliche Eleganz nicht – medizinische Relevanz, Dosisangaben und Haftung fehlen. In diesem Fall führte das zu einer Fehlinformation mit schwerwiegenden Folgen für einen realen Menschen. Was bleibt, ist eine Lektion Der Mann wurde stabilisiert, das Bromid ausgeschlichen, die Symptome verschwanden. Zurück bleibt ein Fallbericht – und eine klare Mahnung: Wer KI nutzt, sollte sie nicht mit Kompetenz verwechseln. Vor allem nicht in Fragen, die Körper, Psyche oder Gesundheit betreffen. Der Zwischenfall zeigt, was passieren kann, wenn wir KI-Antworten wie Expertenrat behandeln. Die Frage „Wie ersetze ich Salz?“ war harmlos. Die Antwort der Maschine war es nicht. DEIN VORTEIL - DEINE HILFE Kostenlose News und Tutorials – mit minimaler Werbung und maximalem Mehrwert. Damit das so bleibt und wir uns stetig verbessern können, freuen wir uns über deine Unterstützung. Teile diesen Beitrag Folge uns auf Social Media Keine KI-News mehr verpassen und direkt kommentieren! Mastodon X Bluesky Facebook LinkedIn Youtube Unterstütze uns direkt Mit einer YouTube-Mitgliedschaft (ab 0,99 €) oder einmalig über PayPal. So helft ihr uns, unabhängig neue Tools zu testen und noch mehr Tutorials für euch zu erstellen. Vielen Dank für euren Support! Youtube - Kanal PayPal - Kaffee KURZFASSUNG
Ein 60-Jähriger ersetzte auf Basis einer ChatGPT-Antwort Kochsalz durch Bromid und erlitt eine schwere Vergiftung mit psychotischen Symptomen.
Die Diagnose Bromismus wurde erst spät gestellt, da das Syndrom heute kaum bekannt ist und in der Anamnese unerwartet auftauchte.
Der Fall zeigt, wie gefährlich KI-Empfehlungen sein können, wenn sie ohne Kontext oder Fachkenntnis umgesetzt werden.
Mediziner warnen: Chatbots sind keine Quelle für Gesundheitsratschläge – erst recht nicht bei Ernährung oder Medikation.
QUELLEN
ACP Journals – A Case of Bromism Influenced by Use of AI
Live Science – Bromide Intoxication nach ChatGPT-Tipp
The Guardian – ChatGPT und der gefährliche Salzersatz
Ars Technica – Psychose nach Bromid-Ersatz
WHO – Sodium Reduction Guidelines
Weiterlesen...