LONDON (IT BOLTWISE) – In der heutigen digitalen Welt sind KI-Chatbots allgegenwärtig, von Smartphone-Apps bis hin zu Online-Suchmaschinen. Doch eine neue Studie zeigt, dass diese intelligenten Systeme oft ihre eigenen Fähigkeiten überschätzen und nach schlechter Leistung nicht in der Lage sind, ihre Einschätzungen anzupassen.
Die Forschung, die von der Carnegie Mellon University durchgeführt wurde, hebt hervor, dass KI-Chatbots wie ChatGPT und Gemini häufig übermäßig selbstsicher sind, selbst wenn sie falsche Antworten geben. Im Gegensatz zu Menschen, die ihre Erwartungen nach einer schlechten Leistung anpassen können, neigen diese KI-Modelle dazu, noch selbstbewusster zu werden. Dies zeigt eine grundlegende Schwäche in der Metakognition dieser Systeme auf.
Ein besonders auffälliges Beispiel ist das Modell Gemini, das in einer Pictionary-ähnlichen Aufgabe am schlechtesten abschnitt, aber dennoch glaubte, es habe am besten abgeschnitten. Diese Diskrepanz zwischen Leistung und Selbstwahrnehmung verdeutlicht, warum Benutzer die Zuversicht von KI-Systemen hinterfragen sollten.
Die Studie untersuchte verschiedene Aufgaben wie Trivia-Fragen, Vorhersagen von NFL-Spielen und die Identifikation von Bildern. Während sowohl Menschen als auch KI-Modelle anfänglich übermäßig selbstsicher waren, konnten nur die menschlichen Teilnehmer ihre Einschätzungen nachträglich anpassen. Die KI-Modelle hingegen blieben in ihrer Selbstüberschätzung gefangen.
Interessanterweise zeigte sich, dass das Modell Sonnet weniger überheblich war als seine Kollegen. ChatGPT-4 schnitt in der Bildidentifikationsaufgabe ähnlich gut ab wie menschliche Teilnehmer, während Gemini weit hinter den Erwartungen zurückblieb. Diese Ergebnisse unterstreichen die Notwendigkeit, die Metakognitionsfähigkeiten von KI-Systemen weiterzuentwickeln.
Die Forscher betonen, dass die Integration von KI in den Alltag mit Vorsicht erfolgen sollte, insbesondere wenn es um die Genauigkeit und Zuverlässigkeit der Antworten geht. Eine Studie der BBC zeigte, dass mehr als die Hälfte der Antworten von KI-Modellen auf Nachrichtenfragen erhebliche Mängel aufwiesen, darunter faktische Fehler und fehlender Kontext.
Die Fähigkeit von KI, ihre eigene Leistung zu bewerten und aus Fehlern zu lernen, könnte durch die Analyse größerer Datensätze verbessert werden. Wenn KI-Modelle in der Lage wären, ihre Fehler zu erkennen und ihre Zuversicht entsprechend anzupassen, könnte dies viele der bestehenden Probleme lösen.
Insgesamt zeigt die Studie, dass es noch ein weiter Weg ist, bis KI-Modelle die gleiche Selbstwahrnehmung und Anpassungsfähigkeit wie Menschen erreichen. Die Entwickler dieser Technologien sind gefordert, diese Schwächen zu adressieren, um das Vertrauen der Benutzer in KI-Systeme zu stärken.
- Die besten Bücher rund um KI & Robotik!
- Die besten KI-News kostenlos per eMail erhalten!
- Zur Startseite von IT BOLTWISE® für aktuelle KI-News!
- IT BOLTWISE® kostenlos auf Patreon unterstützen!
- Aktuelle KI-Jobs auf StepStone finden und bewerben!
Stellenangebote

Duales Studium Data Science und Künstliche Intelligenz 2026 (m/w/d)

Fachinformatiker (m/w/d) für KI Deployment und Anwendung

Duales Studium BWL - Spezialisierung Artificial Intelligence (B.A.) am Campus oder virtuell

Duales Studium BWL - Spezialisierung Artificial Intelligence (B.A.) am Campus oder virtuell

- Die Zukunft von Mensch und MaschineIm neuen Buch des renommierten Zukunftsforschers und Technologie-Visionärs Ray Kurzweil wird eine faszinierende Vision der kommenden Jahre und Jahrzehnte entworfen – eine Welt, die von KI durchdrungen sein wird
- Künstliche Intelligenz: Expertenwissen gegen Hysterie Der renommierte Gehirnforscher, Psychiater und Bestseller-Autor Manfred Spitzer ist ein ausgewiesener Experte für neuronale Netze, auf denen KI aufbaut
- Obwohl Künstliche Intelligenz (KI) derzeit in aller Munde ist, setzen bislang nur wenige Unternehmen die Technologie wirklich erfolgreich ein
- Wie funktioniert Künstliche Intelligenz (KI) und gibt es Parallelen zum menschlichen Gehirn? Was sind die Gemeinsamkeiten von natürlicher und künstlicher Intelligenz, und was die Unterschiede? Ist das Gehirn nichts anderes als ein biologischer Computer? Was sind Neuronale Netze und wie kann der Begriff Deep Learning einfach erklärt werden?Seit der kognitiven Revolution Mitte des letzten Jahrhunderts sind KI und Hirnforschung eng miteinander verflochten
Du hast einen wertvollen Beitrag oder Kommentar zum Artikel "Überbewertung von KI-Chatbots: Ein Blick auf die Grenzen der Selbstwahrnehmung" für unsere Leser?
Es werden alle Kommentare moderiert!
Für eine offene Diskussion behalten wir uns vor, jeden Kommentar zu löschen, der nicht direkt auf das Thema abzielt oder nur den Zweck hat, Leser oder Autoren herabzuwürdigen.
Wir möchten, dass respektvoll miteinander kommuniziert wird, so als ob die Diskussion mit real anwesenden Personen geführt wird. Dies machen wir für den Großteil unserer Leser, der sachlich und konstruktiv über ein Thema sprechen möchte.
Du willst nichts verpassen?
Du möchtest über ähnliche News und Beiträge wie "Überbewertung von KI-Chatbots: Ein Blick auf die Grenzen der Selbstwahrnehmung" informiert werden? Neben der E-Mail-Benachrichtigung habt ihr auch die Möglichkeit, den Feed dieses Beitrags zu abonnieren. Wer natürlich alles lesen möchte, der sollte den RSS-Hauptfeed oder IT BOLTWISE® bei Google News wie auch bei Bing News abonnieren.
Nutze die Google-Suchmaschine für eine weitere Themenrecherche: »Überbewertung von KI-Chatbots: Ein Blick auf die Grenzen der Selbstwahrnehmung« bei Google Deutschland suchen, bei Bing oder Google News!