ChatGPT und das Krankheitsbild «KI-Halluzinationen»: Unwahrheiten und falsche Antworten bei Sprachmodellen können nicht komplett beseitigt werden - IT BOLTWISE® x Artificial Intelligence

NEW YORK / SAN FRANCISCO (IT BOLTWISE) – Techexperten glauben nicht, dass die Halluzinationen, also Unwahrheiten, die von Chatbots wie ChatGPT oder Claude produziert werden, jemals vollständig beseitigt werden können. Selbst namhafte KI-Entwickler wie Anthropic und OpenAI arbeiten daran, ihre Sprachmodelle genauer zu machen, doch die Grenzen der Technologie könnten das Problem ungelöst lassen. Einige Anwendungen könnten von erfundenen Informationen profitieren, aber kritische Bereiche wie Recht und Medizin benötigen weiterhin Lösungen, um zuverlässige Ergebnisse zu gewährleisten. Die Diskrepanz zwischen der Technologie und den Anwendungszwecken bleibt eine Herausforderung, die auch von Experten betont wird.

Techexperten bezweifeln, dass die als Halluzinationen bezeichneten Unwahrheiten von Chatbots wie ChatGPT oder Claude jemals vollständig verschwinden werden. „Kein Modell ist heute frei von Halluzinationen“, erklärte Daniela Amodei, Mitbegründerin und Präsidentin von Anthropic, dem Hersteller des Chatbots Claude 2, gegenüber dem US-Magazin Fortune. „Sie sagen das nächste Wort voraus, so dass Ungenauigkeiten in gewissem Maße vorkommen.“

Diese Unwahrheiten entstehen schnell, wenn die Systeme für Recherchen und das Verfassen von Texten eingesetzt werden. Besonders problematisch wird dies bei Aufgaben, bei denen viel auf dem Spiel stehen kann, wie beispielsweise im Rechtsbereich oder in der Medizin.

Anthropic, OpenAI und andere führende KI-Entwickler gaben gegenüber Fortune an, dass sie daran arbeiten, ihre großen Sprachmodelle wahrheitsgetreuer zu gestalten. Experten zweifeln jedoch zunehmend daran, dass das Problem angesichts der technologischen Grenzen vollständig gelöst werden kann.

„Das ist nicht zu beheben“, sagte die Linguistin Emily Bender von der University of Washington laut dem Bericht. „Es liegt an der Diskrepanz zwischen der Technologie und den angestrebten Anwendungen.“

Für einige Anwendungen, wie etwa Marketing-Präsentationen, können erfundene Informationen sogar hilfreich sein, erklärte Shane Orlick von der KI-Firma Jasper gegenüber der Nachrichtenagentur Associated Press. Dennoch räumte er ein, dass kritische Anwendungen wie Suchmaschinen Lösungen benötigen.

Krankheitsbild KI-Halluzinationen: Unwahrheiten und falsche Antworten können nicht komplett beseitigt werden
Krankheitsbild KI-Halluzinationen: Unwahrheiten und falsche Antworten können nicht komplett beseitigt werden (Foto: MJ)

Hinweis: Teile dieses Textes könnten mithilfe einer Künstlichen Intelligenz generiert worden sein.



Ergänzungen und Infos bitte an die Redaktion per eMail an de-info[at]it-boltwise.de
Stichwörter
Alle Märkte in Echtzeit verfolgen - 30 Tage kostenlos testen!


#Abo
LinkedIn
Facebook
Twitter
#Podcast
YouTube
Spotify
Apple

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert



Es werden alle Kommentare moderiert!

Für eine offene Diskussion behalten wir uns vor, jeden Kommentar zu löschen, der nicht direkt auf das Thema abzielt oder nur den Zweck hat, Leser oder Autoren herabzuwürdigen.

Wir möchten, dass respektvoll miteinander kommuniziert wird, so als ob die Diskussion mit real anwesenden Personen geführt wird. Dies machen wir für den Großteil unserer Leser, der sachlich und konstruktiv über ein Thema sprechen möchte.

Du willst nichts verpassen?

Neben der E-Mail-Benachrichtigung habt ihr auch die Möglichkeit, den Feed dieses Beitrags zu abonnieren. Wer natürlich alles lesen möchte, der sollte den RSS-Hauptfeed oder IT BOLTWISE® bei Google News wie auch bei Bing News abonnieren.