MÜNCHEN (IT BOLTWISE) – Eine neue Studie hat aufgedeckt, dass selbst fortschrittliche KI-Modelle wie ChatGPT menschliche Entscheidungsfehler nachahmen können. Dies wirft Fragen zur Zuverlässigkeit von KI in entscheidungskritischen Situationen auf.

Die jüngste Forschung zeigt, dass Künstliche Intelligenz, insbesondere Modelle wie ChatGPT, nicht nur in der Lage sind, komplexe mathematische und logische Probleme zu lösen, sondern auch menschliche kognitive Verzerrungen nachahmen können. Diese Entdeckung ist von Bedeutung, da KI zunehmend in Bereichen eingesetzt wird, in denen Entscheidungen von großer Tragweite getroffen werden müssen, wie etwa in der Personalbeschaffung oder bei Kreditentscheidungen.
Die Studie, die in der Fachzeitschrift Manufacturing & Service Operations Management veröffentlicht wurde, untersuchte 18 verschiedene Bias-Tests, um zu verstehen, wie KI-Modelle wie GPT-3.5 und GPT-4 in Entscheidungsprozessen agieren. Dabei zeigte sich, dass diese Modelle in fast der Hälfte der Tests menschliche Entscheidungsfehler wie Überkonfidenz oder Ambiguitätsaversion aufwiesen. Interessanterweise waren neuere Versionen analytisch präziser, zeigten jedoch auch stärkere Verzerrungen in urteilbasierten Aufgaben.
Diese Ergebnisse werfen die Frage auf, ob KI tatsächlich in der Lage ist, bessere Entscheidungen als Menschen zu treffen. Die Forscher betonen, dass, obwohl KI in objektiven Aufgaben brilliert, sie bei subjektiven Entscheidungen oft in dieselben kognitiven Fallen tappt wie Menschen. Dies könnte bedeuten, dass KI nicht nur menschliche Fehler nicht eliminiert, sondern sie automatisiert.
In der Praxis bedeutet dies, dass Unternehmen und Regierungen, die KI in Entscheidungsprozessen einsetzen, diese Systeme genauso überwachen sollten wie menschliche Entscheidungsträger. Die Forscher empfehlen regelmäßige Audits von KI-gestützten Entscheidungen und die Verfeinerung von KI-Systemen, um Verzerrungen zu reduzieren. Dies ist besonders wichtig, da die Einflussnahme von KI auf wichtige Entscheidungen in Wirtschaft und Regierung weiter zunimmt.
Die Studie hebt hervor, dass KI-Modelle wie ChatGPT dazu neigen, Risiken zu vermeiden, sich selbst zu überschätzen und Informationen zu bevorzugen, die bestehende Annahmen stützen. Diese menschlichen Eigenschaften in KI-Systemen könnten dazu führen, dass bestehende Entscheidungsprobleme nicht gelöst, sondern verstärkt werden.
Mit der Weiterentwicklung von KI-Technologien wird es entscheidend sein, sicherzustellen, dass diese Systeme nicht nur menschliche Fehler replizieren, sondern tatsächlich zur Verbesserung der Entscheidungsfindung beitragen. Die Forscher betonen die Notwendigkeit, KI-Modelle regelmäßig zu evaluieren und anzupassen, um Überraschungen zu vermeiden und die bestmöglichen Ergebnisse zu erzielen.

- Die besten Bücher rund um KI & Robotik!
- Die besten KI-News kostenlos per eMail erhalten!
- Zur Startseite von IT BOLTWISE® für aktuelle KI-News!
- IT BOLTWISE® kostenlos auf Patreon unterstützen!
- Aktuelle KI-Jobs auf StepStone finden und bewerben!
Stellenangebote

Duales Studium BWL - Spezialisierung Artificial Intelligence (B.A.) am Campus oder virtuell

Werkstudent KI & IT

Programmierschullehrer (m/w/d) für Algorithmen, Webprogrammierung und KI

Software Architect AI (all genders)

- Künstliche Intelligenz: Dem Menschen überlegen – wie KI uns rettet und bedroht | Der Neurowissenschaftler, Psychiater und SPIEGEL-Bestsellerautor von »Digitale Demenz«
Du hast einen wertvollen Beitrag oder Kommentar zum Artikel "KI zeigt menschliche Entscheidungsfehler: Studie warnt vor voreingenommenen Algorithmen" für unsere Leser?
Es werden alle Kommentare moderiert!
Für eine offene Diskussion behalten wir uns vor, jeden Kommentar zu löschen, der nicht direkt auf das Thema abzielt oder nur den Zweck hat, Leser oder Autoren herabzuwürdigen.
Wir möchten, dass respektvoll miteinander kommuniziert wird, so als ob die Diskussion mit real anwesenden Personen geführt wird. Dies machen wir für den Großteil unserer Leser, der sachlich und konstruktiv über ein Thema sprechen möchte.
Du willst nichts verpassen?
Du möchtest über ähnliche News und Beiträge wie "KI zeigt menschliche Entscheidungsfehler: Studie warnt vor voreingenommenen Algorithmen" informiert werden? Neben der E-Mail-Benachrichtigung habt ihr auch die Möglichkeit, den Feed dieses Beitrags zu abonnieren. Wer natürlich alles lesen möchte, der sollte den RSS-Hauptfeed oder IT BOLTWISE® bei Google News wie auch bei Bing News abonnieren.
Nutze die Google-Suchmaschine für eine weitere Themenrecherche: »KI zeigt menschliche Entscheidungsfehler: Studie warnt vor voreingenommenen Algorithmen« bei Google Deutschland suchen, bei Bing oder Google News!