SEATTLE / LONDON (IT BOLTWISE) – Ein Fall von Bromvergiftung in Seattle zeigt die Risiken von KI-gestützter Gesundheitsberatung auf. Ein Mann erlitt Psychosen nach Chatbot-Fehlinformationen.

Ein ungewöhnlicher Fall aus Seattle wirft ein Schlaglicht auf die potenziellen Gefahren von KI-gestützter Gesundheitsberatung. Ein 60-jähriger Mann wurde in ein Krankenhaus eingeliefert, nachdem er überzeugt war, sein Nachbar vergifte ihn. Die Ursache seiner Symptome, die von Halluzinationen bis zu Paranoia reichten, war eine Bromvergiftung, ausgelöst durch einen selbst initiierten Gesundheitsversuch, der auf Informationen von ChatGPT basierte.
Psychosen sind Zustände, in denen Betroffene den Bezug zur Realität verlieren. Sie können durch verschiedene medizinische oder psychiatrische Bedingungen hervorgerufen werden, darunter Schizophrenie oder schwere Depressionen. In diesem Fall führte die Einnahme von Natriumbromid, das der Mann als Ersatz für Kochsalz verwendete, zu einer toxischen Anreicherung im Körper.
Die Ärzte stellten fest, dass der Mann seine Ernährung auf Bromid umgestellt hatte, nachdem er von ChatGPT erfahren hatte, dass es als Ersatz für Chlorid dienen könnte. Der Chatbot hatte jedoch keine Warnungen bezüglich der gesundheitlichen Risiken gegeben. Diese Fehlinformation führte zu einer gefährlichen Bromidkonzentration im Blut des Patienten, die weit über dem Normalbereich lag.
Dieser Vorfall verdeutlicht die Risiken, die mit der Nutzung von KI-gestützten Chatbots im Gesundheitsbereich verbunden sind. Während solche Systeme in strukturierten Umgebungen nützlich sein können, bergen sie auch versteckte Gefahren, insbesondere für Nutzer, die die Informationen wörtlich nehmen. Die Autoren der Studie betonen die Notwendigkeit, bei ungewöhnlichen psychiatrischen Symptomen auch die Nutzung von KI-Systemen in Betracht zu ziehen.

- Die besten Bücher rund um KI & Robotik!
- Die besten KI-News kostenlos per eMail erhalten!
- Zur Startseite von IT BOLTWISE® für aktuelle KI-News!
- IT BOLTWISE® kostenlos auf Patreon unterstützen!
- Aktuelle KI-Jobs auf StepStone finden und bewerben!
Stellenangebote

Business Development Manager – Agentic AI (m/w/d)

Duales Studium Data Sience & KI - Start Oktober 2026 (m/w/d)

KI-Manager (m/w/d)

Student*in für Abschlussarbeit für die Entwicklung eines KI-gestützten Tools zur Generierung von Interieurdesigns

- Künstliche Intelligenz: Dem Menschen überlegen – wie KI uns rettet und bedroht | Der Neurowissenschaftler, Psychiater und SPIEGEL-Bestsellerautor von »Digitale Demenz«
Du hast einen wertvollen Beitrag oder Kommentar zum Artikel "Gefahren der KI: Ein Fall von Bromvergiftung durch Chatbot-Beratung" für unsere Leser?
Es werden alle Kommentare moderiert!
Für eine offene Diskussion behalten wir uns vor, jeden Kommentar zu löschen, der nicht direkt auf das Thema abzielt oder nur den Zweck hat, Leser oder Autoren herabzuwürdigen.
Wir möchten, dass respektvoll miteinander kommuniziert wird, so als ob die Diskussion mit real anwesenden Personen geführt wird. Dies machen wir für den Großteil unserer Leser, der sachlich und konstruktiv über ein Thema sprechen möchte.
Du willst nichts verpassen?
Du möchtest über ähnliche News und Beiträge wie "Gefahren der KI: Ein Fall von Bromvergiftung durch Chatbot-Beratung" informiert werden? Neben der E-Mail-Benachrichtigung habt ihr auch die Möglichkeit, den Feed dieses Beitrags zu abonnieren. Wer natürlich alles lesen möchte, der sollte den RSS-Hauptfeed oder IT BOLTWISE® bei Google News wie auch bei Bing News abonnieren.
Nutze die Google-Suchmaschine für eine weitere Themenrecherche: »Gefahren der KI: Ein Fall von Bromvergiftung durch Chatbot-Beratung« bei Google Deutschland suchen, bei Bing oder Google News!