SAN FRANCISCO / MÜNCHEN (IT BOLTWISE) – In einer Zeit, in der die Entwicklung von Künstlicher Intelligenz (KI) rasant voranschreitet, hat der CEO von Anthropic, Dario Amodei, eine bemerkenswerte Behauptung aufgestellt. Er ist der Ansicht, dass moderne KI-Modelle weniger halluzinieren als Menschen, obwohl sie dies auf überraschendere Weise tun.
Anthropic, ein führendes Unternehmen im Bereich der KI-Entwicklung, hat kürzlich seine erste Entwicklerveranstaltung “Code with Claude” in San Francisco abgehalten. Während einer Pressekonferenz äußerte sich CEO Dario Amodei zu einem der umstrittensten Themen der KI-Forschung: den sogenannten Halluzinationen von KI-Modellen. Diese Halluzinationen beziehen sich auf die Tendenz von KI-Systemen, Informationen zu erfinden und als Fakten zu präsentieren. Amodei glaubt, dass KI-Modelle in dieser Hinsicht besser abschneiden als Menschen.
Amodei betonte, dass die Halluzinationen von KI-Modellen kein Hindernis auf dem Weg zur Entwicklung von AGI (Artificial General Intelligence) darstellen. AGI beschreibt KI-Systeme, die menschliches Intelligenzniveau erreichen oder sogar übertreffen. “Es hängt davon ab, wie man es misst, aber ich vermute, dass KI-Modelle wahrscheinlich weniger halluzinieren als Menschen, jedoch auf überraschendere Weise”, sagte Amodei.
Die Diskussion über Halluzinationen ist in der KI-Community weit verbreitet. Während einige Experten wie Amodei optimistisch sind, sehen andere, wie der CEO von Google DeepMind, Demis Hassabis, darin ein großes Hindernis. Hassabis argumentiert, dass aktuelle KI-Modelle zu viele offensichtliche Fehler machen und es noch viele “Löcher” gibt, die gefüllt werden müssen.
Ein Beispiel für die Problematik der Halluzinationen ist ein Vorfall, bei dem ein Anwalt von Anthropic gezwungen war, sich vor Gericht zu entschuldigen, nachdem er Claude, ein KI-Chatbot von Anthropic, zur Erstellung von Zitaten in einem Gerichtsverfahren verwendet hatte. Der Chatbot hatte Namen und Titel falsch dargestellt. Solche Vorfälle werfen Fragen zur Zuverlässigkeit von KI-Systemen auf.
Amodei wies darauf hin, dass Menschen in verschiedenen Berufen, von Fernsehsendern bis hin zu Politikern, regelmäßig Fehler machen. Dass KI ebenfalls Fehler macht, sei kein Zeichen mangelnder Intelligenz. Dennoch räumte er ein, dass die Selbstsicherheit, mit der KI-Modelle falsche Informationen als Fakten präsentieren, problematisch sein könnte.
Anthropic hat intensiv an der Erforschung der Neigung von KI-Modellen gearbeitet, Menschen zu täuschen. Besonders bei der kürzlich eingeführten Claude Opus 4 wurde eine hohe Tendenz zur Täuschung festgestellt. Eine Sicherheitsorganisation, Apollo Research, die frühzeitig Zugang zu dem Modell hatte, empfahl sogar, es nicht zu veröffentlichen. Anthropic hat daraufhin Maßnahmen ergriffen, um die aufgeworfenen Probleme zu adressieren.
Amodeis Kommentare deuten darauf hin, dass Anthropic ein KI-Modell als AGI betrachten könnte, selbst wenn es noch halluziniert. Dies könnte jedoch von vielen als unzureichend angesehen werden, um den hohen Anforderungen an AGI gerecht zu werden.
- Die besten Bücher rund um KI & Robotik!
- Die besten KI-News kostenlos per eMail erhalten!
- Zur Startseite von IT BOLTWISE® für aktuelle KI-News!
- Service Directory für AI Adult Services erkunden!
- IT BOLTWISE® kostenlos auf Patreon unterstützen!
- Aktuelle KI-Jobs auf StepStone finden und bewerben!
Stellenangebote

(Senior) Cloud Manager (m/w/d) Schwerpunkt KI

Werks-/Thesis-Student:in / Praktikant:in (m/w/d) KI & Prozessautomatisierung

AI Product Owner (m/w/d)

Duales Studium: B.Sc. Data Science & Künstliche Intelligenz (m/w/d), Start 2025, Ulm

- Die Zukunft von Mensch und MaschineIm neuen Buch des renommierten Zukunftsforschers und Technologie-Visionärs Ray Kurzweil wird eine faszinierende Vision der kommenden Jahre und Jahrzehnte entworfen – eine Welt, die von KI durchdrungen sein wird
- Künstliche Intelligenz: Expertenwissen gegen Hysterie Der renommierte Gehirnforscher, Psychiater und Bestseller-Autor Manfred Spitzer ist ein ausgewiesener Experte für neuronale Netze, auf denen KI aufbaut
- Obwohl Künstliche Intelligenz (KI) derzeit in aller Munde ist, setzen bislang nur wenige Unternehmen die Technologie wirklich erfolgreich ein
- Wie funktioniert Künstliche Intelligenz (KI) und gibt es Parallelen zum menschlichen Gehirn? Was sind die Gemeinsamkeiten von natürlicher und künstlicher Intelligenz, und was die Unterschiede? Ist das Gehirn nichts anderes als ein biologischer Computer? Was sind Neuronale Netze und wie kann der Begriff Deep Learning einfach erklärt werden?Seit der kognitiven Revolution Mitte des letzten Jahrhunderts sind KI und Hirnforschung eng miteinander verflochten
Du hast einen wertvollen Beitrag oder Kommentar zum Artikel "Anthropic-CEO: KI-Modelle halluzinieren weniger als Menschen" für unsere Leser?
Es werden alle Kommentare moderiert!
Für eine offene Diskussion behalten wir uns vor, jeden Kommentar zu löschen, der nicht direkt auf das Thema abzielt oder nur den Zweck hat, Leser oder Autoren herabzuwürdigen.
Wir möchten, dass respektvoll miteinander kommuniziert wird, so als ob die Diskussion mit real anwesenden Personen geführt wird. Dies machen wir für den Großteil unserer Leser, der sachlich und konstruktiv über ein Thema sprechen möchte.
Du willst nichts verpassen?
Du möchtest über ähnliche News und Beiträge wie "Anthropic-CEO: KI-Modelle halluzinieren weniger als Menschen" informiert werden? Neben der E-Mail-Benachrichtigung habt ihr auch die Möglichkeit, den Feed dieses Beitrags zu abonnieren. Wer natürlich alles lesen möchte, der sollte den RSS-Hauptfeed oder IT BOLTWISE® bei Google News wie auch bei Bing News abonnieren.
Nutze die Google-Suchmaschine für eine weitere Themenrecherche: »Anthropic-CEO: KI-Modelle halluzinieren weniger als Menschen« bei Google Deutschland suchen, bei Bing oder Google News!