OXFORD / MÜNCHEN (IT BOLTWISE) – In einer Zeit, in der die Gesundheitsversorgung zunehmend unter Druck steht, wenden sich viele Menschen an KI-gestützte Chatbots, um medizinische Ratschläge einzuholen. Eine aktuelle Studie der Universität Oxford zeigt jedoch, dass diese Technologie nicht immer die erhofften Ergebnisse liefert.

 Heutige Tagesdeals bei Amazon!  ˗ˋˏ$ˎˊ˗

Die Nutzung von KI-Chatbots zur Selbstdiagnose im Gesundheitsbereich nimmt zu, insbesondere in den USA, wo etwa jeder sechste Erwachsene monatlich auf solche Dienste zurückgreift. Diese Entwicklung ist vor dem Hintergrund überlasteter Gesundheitssysteme und steigender Kosten verständlich. Doch eine Studie der Universität Oxford legt nahe, dass die Interaktion mit diesen Chatbots nicht immer zu besseren Entscheidungen führt als traditionelle Methoden wie Online-Recherchen oder die eigene Einschätzung. Die Forscher stellten fest, dass es oft zu einem Kommunikationsproblem kommt: Die Nutzer wissen nicht, welche Informationen sie den Chatbots geben müssen, um präzise Empfehlungen zu erhalten. In der Studie wurden rund 1.300 Teilnehmer in Großbritannien mit medizinischen Szenarien konfrontiert, die von Ärzten erstellt wurden. Die Teilnehmer sollten mögliche Gesundheitszustände identifizieren und sowohl Chatbots als auch ihre eigenen Methoden nutzen, um geeignete Maßnahmen zu bestimmen. Dabei kamen verschiedene KI-Modelle zum Einsatz, darunter das GPT-4o von OpenAI, Cohere’s Command R+ und Meta’s Llama 3. Die Ergebnisse zeigten, dass die Chatbots die Teilnehmer nicht nur weniger wahrscheinlich dazu brachten, relevante Gesundheitszustände zu erkennen, sondern auch dazu führten, die Schwere der erkannten Zustände zu unterschätzen. Adam Mahdi, Mitautor der Studie, betonte, dass die Antworten der Chatbots oft schwer zu interpretieren waren und sowohl gute als auch schlechte Empfehlungen enthielten. Diese Ergebnisse werfen Fragen zur Eignung von KI-Chatbots in der Gesundheitsberatung auf, insbesondere da große Technologieunternehmen wie Apple, Amazon und Microsoft zunehmend auf KI setzen, um Gesundheitsdienstleistungen zu verbessern. Trotz der Fortschritte in der KI-Technologie bleibt die Skepsis groß, ob diese Systeme für risikoreiche Anwendungen im Gesundheitsbereich bereit sind. Die American Medical Association rät Ärzten davon ab, Chatbots wie ChatGPT für klinische Entscheidungen zu nutzen, und auch große KI-Unternehmen warnen davor, Diagnosen auf Basis der Chatbot-Antworten zu stellen. Mahdi empfiehlt, sich auf vertrauenswürdige Informationsquellen zu verlassen und betont, dass KI-Systeme, ähnlich wie neue Medikamente, in der realen Welt getestet werden sollten, bevor sie breit eingesetzt werden.

*Amazon-Kreditkarte ohne Jahresgebühr mit 2.000 Euro Verfügungsrahmen bestellen! a‿z




Hat Ihnen der Artikel bzw. die News - Herausforderungen bei der Nutzung von KI-Chatbots für Gesundheitsberatung - gefallen? Dann abonnieren Sie uns doch auf Insta: AI News, Tech Trends & Robotics - Instagram - Boltwise

Unseren KI-Morning-Newsletter «Der KI News Espresso» mit den besten KI-News des letzten Tages gratis per eMail - ohne Werbung: Hier kostenlos eintragen!


Herausforderungen bei der Nutzung von KI-Chatbots für Gesundheitsberatung
Herausforderungen bei der Nutzung von KI-Chatbots für Gesundheitsberatung (Foto: DALL-E, IT BOLTWISE)



Folgen Sie aktuellen Beiträge über KI & Robotik auf Twitter, Telegram, Facebook oder LinkedIn!
Hinweis: Teile dieses Textes könnten mithilfe Künstlicher Intelligenz generiert worden sein. Die auf dieser Website bereitgestellten Informationen stellen keine Finanzberatung dar und sind nicht als solche gedacht. Die Informationen sind allgemeiner Natur und dienen nur zu Informationszwecken. Wenn Sie Finanzberatung für Ihre individuelle Situation benötigen, sollten Sie den Rat von einem qualifizierten Finanzberater einholen. IT BOLTWISE® schließt jegliche Regressansprüche aus.









Ergänzungen und Infos bitte an die Redaktion per eMail an de-info[at]it-boltwise.de. Da wir bei KI-erzeugten News und Inhalten selten auftretende KI-Halluzinationen nicht ausschließen können, bitten wir Sie bei Falschangaben und Fehlinformationen uns via eMail zu kontaktieren und zu informieren. Bitte vergessen Sie nicht in der eMail die Artikel-Headline zu nennen: "Herausforderungen bei der Nutzung von KI-Chatbots für Gesundheitsberatung".
Stichwörter AI Artificial Intelligence Chatbot Gesundheit KI Kommunikation Künstliche Intelligenz Risiken
Alle Märkte in Echtzeit verfolgen - 30 Tage kostenlos testen!

Du hast einen wertvollen Beitrag oder Kommentar zum Artikel "Herausforderungen bei der Nutzung von KI-Chatbots für Gesundheitsberatung" für unsere Leser?

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

  • Die aktuellen intelligenten Ringe, intelligenten Brillen, intelligenten Uhren oder KI-Smartphones auf Amazon entdecken! (Sponsored)


  • Es werden alle Kommentare moderiert!

    Für eine offene Diskussion behalten wir uns vor, jeden Kommentar zu löschen, der nicht direkt auf das Thema abzielt oder nur den Zweck hat, Leser oder Autoren herabzuwürdigen.

    Wir möchten, dass respektvoll miteinander kommuniziert wird, so als ob die Diskussion mit real anwesenden Personen geführt wird. Dies machen wir für den Großteil unserer Leser, der sachlich und konstruktiv über ein Thema sprechen möchte.

    Du willst nichts verpassen?

    Du möchtest über ähnliche News und Beiträge wie "Herausforderungen bei der Nutzung von KI-Chatbots für Gesundheitsberatung" informiert werden? Neben der E-Mail-Benachrichtigung habt ihr auch die Möglichkeit, den Feed dieses Beitrags zu abonnieren. Wer natürlich alles lesen möchte, der sollte den RSS-Hauptfeed oder IT BOLTWISE® bei Google News wie auch bei Bing News abonnieren.
    Nutze die Google-Suchmaschine für eine weitere Themenrecherche: »Herausforderungen bei der Nutzung von KI-Chatbots für Gesundheitsberatung« bei Google Deutschland suchen, bei Bing oder Google News!

    262 Leser gerade online auf IT BOLTWISE®
    KI-Jobs