LONDON (IT BOLTWISE) – Ein besorgniserregender Vorfall zeigt, wie gefährlich es sein kann, sich auf KI-gestützte Gesundheitsberatung zu verlassen. Ein Mann wurde ins Krankenhaus eingeliefert, nachdem er den Ratschlägen eines Chatbots gefolgt war.

Die zunehmende Verbreitung von Künstlicher Intelligenz (KI) in unserem Alltag hat viele Vorteile gebracht, von der Automatisierung einfacher Aufgaben bis hin zur Unterstützung bei komplexen Entscheidungen. Doch der jüngste Fall eines Mannes, der nach der Befolgung von KI-Ratschlägen ins Krankenhaus eingeliefert wurde, wirft ernste Fragen über die Zuverlässigkeit solcher Systeme auf. Der Mann hatte sich an einen KI-Chatbot gewandt, um eine gesündere Alternative zu Natriumchlorid zu finden, und erhielt den Vorschlag, Natriumbromid zu verwenden.
Während Natriumbromid tatsächlich als Ersatz für Natriumchlorid verwendet werden kann, ist dies normalerweise auf industrielle Anwendungen wie die Reinigung von Whirlpools beschränkt. Der Chatbot versäumte es, diesen wichtigen Kontext zu liefern, was dazu führte, dass der Mann die Substanz in seine Ernährung integrierte. Drei Monate später wurde er mit schweren psychiatrischen Symptomen, darunter paranoide Wahnvorstellungen und Halluzinationen, in die Notaufnahme eingeliefert.
Die Ärzte diagnostizierten bei ihm Bromismus, eine seltene Form der Vergiftung, die durch eine toxische Anreicherung von Bromid im Körper verursacht wird. Diese Erkrankung war im frühen 20. Jahrhundert relativ häufig, verschwand jedoch weitgehend, nachdem bromidhaltige Medikamente aus dem Verkehr gezogen wurden. Der Fall verdeutlicht die Gefahren, die mit der unkritischen Nutzung von KI-Systemen verbunden sind, insbesondere wenn es um medizinische Ratschläge geht.
Experten warnen davor, dass KI-Systeme wie ChatGPT wissenschaftliche Ungenauigkeiten erzeugen und die Verbreitung von Fehlinformationen fördern können. Ein menschlicher Experte hätte wahrscheinlich niemals Natriumbromid als Ersatz für Speisesalz empfohlen. Dieser Vorfall unterstreicht die Notwendigkeit, bei der Nutzung von KI-Technologien Vorsicht walten zu lassen und sich bei wichtigen Gesundheitsfragen auf qualifizierte Fachleute zu verlassen.

- Die besten Bücher rund um KI & Robotik!
- Die besten KI-News kostenlos per eMail erhalten!
- Zur Startseite von IT BOLTWISE® für aktuelle KI-News!
- IT BOLTWISE® kostenlos auf Patreon unterstützen!
- Aktuelle KI-Jobs auf StepStone finden und bewerben!
Stellenangebote

Bauprojektleiter Technische Gebäudeausrüstung Elektrotechnik für KI- Rechenzentrumprojekte (m/w/d)

AI Hackathon: Öffentliche Verwaltung neu denken - mit KI

Duales Studium BWL - Spezialisierung Artificial Intelligence (B.A.) am Campus oder virtuell

Duales Studium BWL - Spezialisierung Artificial Intelligence (B.A.) am Campus oder virtuell

- Künstliche Intelligenz: Dem Menschen überlegen – wie KI uns rettet und bedroht | Der Neurowissenschaftler, Psychiater und SPIEGEL-Bestsellerautor von »Digitale Demenz«
Du hast einen wertvollen Beitrag oder Kommentar zum Artikel "Gefährliche KI-Beratung: Mann erleidet Bromvergiftung" für unsere Leser?
Es werden alle Kommentare moderiert!
Für eine offene Diskussion behalten wir uns vor, jeden Kommentar zu löschen, der nicht direkt auf das Thema abzielt oder nur den Zweck hat, Leser oder Autoren herabzuwürdigen.
Wir möchten, dass respektvoll miteinander kommuniziert wird, so als ob die Diskussion mit real anwesenden Personen geführt wird. Dies machen wir für den Großteil unserer Leser, der sachlich und konstruktiv über ein Thema sprechen möchte.
Du willst nichts verpassen?
Du möchtest über ähnliche News und Beiträge wie "Gefährliche KI-Beratung: Mann erleidet Bromvergiftung" informiert werden? Neben der E-Mail-Benachrichtigung habt ihr auch die Möglichkeit, den Feed dieses Beitrags zu abonnieren. Wer natürlich alles lesen möchte, der sollte den RSS-Hauptfeed oder IT BOLTWISE® bei Google News wie auch bei Bing News abonnieren.
Nutze die Google-Suchmaschine für eine weitere Themenrecherche: »Gefährliche KI-Beratung: Mann erleidet Bromvergiftung« bei Google Deutschland suchen, bei Bing oder Google News!