SAN FRANCISCO / LONDON (IT BOLTWISE) – OpenAI hat einen neuen Ansatz zur Bekämpfung von KI-Halluzinationen vorgestellt. Diese Halluzinationen, bei denen KI-Modelle falsche Informationen generieren, stellen ein großes Problem in der Branche dar. OpenAI schlägt vor, die Bewertungssysteme zu ändern, um Unsicherheiten besser zu berücksichtigen und das Raten zu entmutigen.

OpenAI hat kürzlich eine neue Strategie vorgestellt, um das Problem der sogenannten Halluzinationen in KI-Modellen zu adressieren. Diese Halluzinationen, bei denen KI-Modelle falsche Informationen generieren, sind ein weit verbreitetes Problem, das die Nützlichkeit der Technologie erheblich beeinträchtigt. Experten haben festgestellt, dass das Problem mit zunehmender Leistungsfähigkeit der Modelle sogar noch schlimmer wird.
In einem kürzlich veröffentlichten Papier argumentieren OpenAI-Forscher, dass das Problem der Halluzinationen auf die Art und Weise zurückzuführen ist, wie KI-Modelle trainiert werden. Derzeit werden Modelle dafür belohnt, wenn sie richtige Antworten geben, und bestraft, wenn sie falsche Antworten liefern. Dies führt dazu, dass Modelle eher raten, anstatt Unsicherheit zuzugeben, da Raten potenziell belohnt wird.
OpenAI schlägt vor, die Bewertungsmethoden zu ändern, um Unsicherheiten besser zu berücksichtigen. Indem man unsichere Antworten weniger stark bestraft als falsche, könnte man die Modelle dazu ermutigen, Unsicherheiten zuzugeben, anstatt zu raten. Diese Änderung könnte die Anreize für Modelle neu ausrichten und die Häufigkeit von Halluzinationen reduzieren.
Obwohl OpenAI behauptet, dass ihr neuestes Modell, GPT-5, weniger halluziniert, sind die Nutzer bisher wenig beeindruckt. Die KI-Industrie steht vor der Herausforderung, die hohen Investitionen in die Technologie zu rechtfertigen, während sie gleichzeitig mit den Problemen der Halluzinationen und den damit verbundenen Emissionen kämpft. OpenAI bleibt jedoch optimistisch und arbeitet weiter daran, die Halluzinationen in ihren Modellen zu reduzieren.


- Die besten Bücher rund um KI & Robotik!
- Die besten KI-News kostenlos per eMail erhalten!
- Zur Startseite von IT BOLTWISE® für aktuelle KI-News!
- IT BOLTWISE® kostenlos auf Patreon unterstützen!
- Aktuelle KI-Jobs auf StepStone finden und bewerben!
Stellenangebote

Promotionsstelle (Doktorand) Generative AI & Künstliche Intelligenz in Geschäftsprozessen – Netze BW & KIT (w/m/d) – befristet auf 3 Jahre

Duales Studium BWL - Spezialisierung Artificial Intelligence (B.A.) am Campus oder virtuell

Bauprojektleiter Technische Gebäudeausrüstung Elektrotechnik für KI- Rechenzentrumprojekte (m/w/d)

Werkstudent (m/w/d) Digitalisierung & KI im Ingenieurwesen

- Künstliche Intelligenz: Dem Menschen überlegen – wie KI uns rettet und bedroht | Der Neurowissenschaftler, Psychiater und SPIEGEL-Bestsellerautor von »Digitale Demenz«
Du hast einen wertvollen Beitrag oder Kommentar zum Artikel "OpenAI: Neue Ansätze zur Reduzierung von KI-Halluzinationen" für unsere Leser?
Es werden alle Kommentare moderiert!
Für eine offene Diskussion behalten wir uns vor, jeden Kommentar zu löschen, der nicht direkt auf das Thema abzielt oder nur den Zweck hat, Leser oder Autoren herabzuwürdigen.
Wir möchten, dass respektvoll miteinander kommuniziert wird, so als ob die Diskussion mit real anwesenden Personen geführt wird. Dies machen wir für den Großteil unserer Leser, der sachlich und konstruktiv über ein Thema sprechen möchte.
Du willst nichts verpassen?
Du möchtest über ähnliche News und Beiträge wie "OpenAI: Neue Ansätze zur Reduzierung von KI-Halluzinationen" informiert werden? Neben der E-Mail-Benachrichtigung habt ihr auch die Möglichkeit, den Feed dieses Beitrags zu abonnieren. Wer natürlich alles lesen möchte, der sollte den RSS-Hauptfeed oder IT BOLTWISE® bei Google News wie auch bei Bing News abonnieren.
Nutze die Google-Suchmaschine für eine weitere Themenrecherche: »OpenAI: Neue Ansätze zur Reduzierung von KI-Halluzinationen« bei Google Deutschland suchen, bei Bing oder Google News!