MÜNCHEN (IT BOLTWISE) – In einer Welt, in der Künstliche Intelligenz (KI) zunehmend in Entscheidungsprozesse integriert wird, zeigt eine aktuelle Studie, dass auch diese Systeme nicht frei von menschlichen Schwächen sind.

Die jüngste Forschung hat aufgedeckt, dass KI-Systeme, obwohl sie anders als Menschen „denken“, in vielen Fällen ebenso irrational entscheiden können. Eine Studie, die im April in der Fachzeitschrift Manufacturing & Service Operations Management veröffentlicht wurde, untersuchte das Verhalten von ChatGPT in Bezug auf 18 bekannte kognitive Verzerrungen, die in der menschlichen Psychologie vorkommen.
Die Autoren der Studie, die aus fünf akademischen Institutionen in Kanada und Australien stammen, testeten die großen Sprachmodelle GPT-3.5 und GPT-4 von OpenAI. Dabei stellten sie fest, dass diese Modelle trotz ihrer beeindruckenden Konsistenz in der Argumentation nicht immun gegen menschliche Fehler sind.
Interessanterweise zeigte sich, dass GPT-4 bei Aufgaben mit klaren mathematischen Lösungen besser abschnitt als GPT-3.5, während es in subjektiven Szenarien, wie der Entscheidung für eine riskante Option, oft die irrationalen Präferenzen von Menschen widerspiegelte. Dies deutet darauf hin, dass KI-Systeme in unsicheren Situationen eher zu sicheren und vorhersehbaren Ergebnissen neigen.
Die Studie ergab auch, dass die gezeigten Verzerrungen nicht nur auf ein Auswendiglernen von Beispielen zurückzuführen sind, sondern Teil der Art und Weise sind, wie KI argumentiert. Besonders auffällig war, dass GPT-4 in der Aufgabe zur Bestätigungstendenz immer voreingenommene Antworten gab und eine stärkere Neigung zur Hot-Hand-Fallacy zeigte als GPT-3.5.
Dennoch gelang es ChatGPT, einige häufige menschliche Verzerrungen zu vermeiden, darunter die Basisratenvernachlässigung und die Sunk-Cost-Fallacy. Laut den Autoren stammen die menschlichen Verzerrungen von ChatGPT aus Trainingsdaten, die die kognitiven Verzerrungen und Heuristiken der Menschen enthalten.
Die Studie unterstreicht die Notwendigkeit, KI-Systeme wie Mitarbeiter zu behandeln, die wichtige Entscheidungen treffen – mit Aufsicht und ethischen Richtlinien. Ohne diese Maßnahmen besteht die Gefahr, dass fehlerhaftes Denken automatisiert wird, anstatt es zu verbessern.

- Die besten Bücher rund um KI & Robotik!
- Die besten KI-News kostenlos per eMail erhalten!
- Zur Startseite von IT BOLTWISE® für aktuelle KI-News!
- IT BOLTWISE® kostenlos auf Patreon unterstützen!
- Aktuelle KI-Jobs auf StepStone finden und bewerben!
Stellenangebote

Java/AI Developer (all genders) Münster, Düsseldorf

Head of Digital Transformation Operations / Program Manager AI (w/m/d)

AI Solutions Manager:in I Customer Operations (w/m/d)

KI-Experte / Chemiker mit KI-Erfahrung (m/w/d)

- Künstliche Intelligenz: Dem Menschen überlegen – wie KI uns rettet und bedroht | Der Neurowissenschaftler, Psychiater und SPIEGEL-Bestsellerautor von »Digitale Demenz«
Du hast einen wertvollen Beitrag oder Kommentar zum Artikel "Künstliche Intelligenz: Menschliche Schwächen in der digitalen Welt" für unsere Leser?
Es werden alle Kommentare moderiert!
Für eine offene Diskussion behalten wir uns vor, jeden Kommentar zu löschen, der nicht direkt auf das Thema abzielt oder nur den Zweck hat, Leser oder Autoren herabzuwürdigen.
Wir möchten, dass respektvoll miteinander kommuniziert wird, so als ob die Diskussion mit real anwesenden Personen geführt wird. Dies machen wir für den Großteil unserer Leser, der sachlich und konstruktiv über ein Thema sprechen möchte.
Du willst nichts verpassen?
Du möchtest über ähnliche News und Beiträge wie "Künstliche Intelligenz: Menschliche Schwächen in der digitalen Welt" informiert werden? Neben der E-Mail-Benachrichtigung habt ihr auch die Möglichkeit, den Feed dieses Beitrags zu abonnieren. Wer natürlich alles lesen möchte, der sollte den RSS-Hauptfeed oder IT BOLTWISE® bei Google News wie auch bei Bing News abonnieren.
Nutze die Google-Suchmaschine für eine weitere Themenrecherche: »Künstliche Intelligenz: Menschliche Schwächen in der digitalen Welt« bei Google Deutschland suchen, bei Bing oder Google News!