MÜNCHEN (IT BOLTWISE) – OpenAI sieht sich in Europa mit einer neuen Datenschutzbeschwerde konfrontiert, die die Tendenz seines KI-Chatbots ChatGPT betrifft, falsche Informationen zu halluzinieren. Diese Beschwerde könnte für die Regulierungsbehörden schwer zu ignorieren sein.

OpenAI steht erneut im Fokus europäischer Datenschutzbehörden, da sein KI-Chatbot ChatGPT immer wieder falsche Informationen generiert. Ein besonders gravierender Fall betrifft einen Norweger, der entsetzt feststellen musste, dass ChatGPT fälschlicherweise behauptete, er sei wegen Mordes an seinen Kindern verurteilt worden. Diese Art von Halluzinationen wirft ernsthafte Fragen zur Genauigkeit und Zuverlässigkeit von KI-Systemen auf, insbesondere im Hinblick auf die Einhaltung der Datenschutz-Grundverordnung (GDPR) der Europäischen Union.
Die Datenschutz-Grundverordnung verlangt von Datenverantwortlichen, dass die von ihnen verarbeiteten personenbezogenen Daten korrekt sind. Dies ist ein zentraler Punkt der aktuellen Beschwerde, die von der Datenschutzorganisation Noyb unterstützt wird. Joakim Söderberg, Datenschutzanwalt bei Noyb, betont, dass ein einfacher Hinweis auf mögliche Fehler des Chatbots nicht ausreicht, um die Verbreitung falscher Informationen zu rechtfertigen.
Die möglichen Konsequenzen für OpenAI sind erheblich. Bei bestätigten Verstößen gegen die GDPR drohen Strafen von bis zu 4 % des weltweiten Jahresumsatzes. Bereits in der Vergangenheit hat eine Intervention der italienischen Datenschutzbehörde dazu geführt, dass der Zugang zu ChatGPT vorübergehend gesperrt wurde, was OpenAI zu Anpassungen zwang. Diese Entwicklungen zeigen, dass Datenschutzbehörden zunehmend versuchen, die Anwendung der GDPR auf KI-Technologien zu klären.
Ein weiterer Aspekt der Beschwerde betrifft die fehlende Möglichkeit für Nutzer, falsche Informationen zu korrigieren. Während OpenAI in der Vergangenheit angeboten hat, Antworten für bestimmte Anfragen zu blockieren, reicht dies unter den aktuellen Datenschutzbestimmungen nicht aus. Die Forderung nach einer Möglichkeit zur Korrektur von Daten wird immer lauter, da die potenziellen Schäden durch falsche Informationen erheblich sein können.
Interessanterweise hat ein Update des zugrunde liegenden KI-Modells von ChatGPT dazu geführt, dass die gefährlichen Falschinformationen über den betroffenen Norweger nicht mehr generiert werden. Dies wird darauf zurückgeführt, dass das Tool nun das Internet nach Informationen durchsucht, anstatt bei fehlenden Daten im Trainingssatz zu halluzinieren. Dennoch bleibt die Sorge bestehen, dass falsche und diffamierende Informationen im Modell gespeichert sein könnten.
Die aktuelle Beschwerde von Noyb zielt darauf ab, die Datenschutzbehörden auf die Gefahren aufmerksam zu machen, die von halluzinierenden KIs ausgehen. Die Organisation argumentiert, dass die Einhaltung der GDPR für KI-Unternehmen zwingend erforderlich ist und dass Halluzinationen gestoppt werden müssen, um Reputationsschäden zu vermeiden. Die Beschwerde wurde bei der norwegischen Datenschutzbehörde eingereicht, in der Hoffnung, dass diese sich für zuständig erklärt, da Noyb die Beschwerde gegen die US-Einheit von OpenAI richtet.


- Die besten Bücher rund um KI & Robotik!
- Die besten KI-News kostenlos per eMail erhalten!
- Zur Startseite von IT BOLTWISE® für aktuelle KI-News!
- IT BOLTWISE® kostenlos auf Patreon unterstützen!
- Aktuelle KI-Jobs auf StepStone finden und bewerben!
Stellenangebote
Teamleiter Beratung - KI und Prozessoptimierung (m/w/d)

Duales Studium BWL - Spezialisierung Artificial Intelligence (B.A.) am Campus oder virtuell

Dozent Tourismusmanagement Tech und KI (m/w/d)

AI Solution Architect (m/w/d)

- Künstliche Intelligenz: Dem Menschen überlegen – wie KI uns rettet und bedroht | Der Neurowissenschaftler, Psychiater und SPIEGEL-Bestsellerautor von »Digitale Demenz«
Du hast einen wertvollen Beitrag oder Kommentar zum Artikel "OpenAI steht vor neuen Herausforderungen durch KI-Halluzinationen" für unsere Leser?
Es werden alle Kommentare moderiert!
Für eine offene Diskussion behalten wir uns vor, jeden Kommentar zu löschen, der nicht direkt auf das Thema abzielt oder nur den Zweck hat, Leser oder Autoren herabzuwürdigen.
Wir möchten, dass respektvoll miteinander kommuniziert wird, so als ob die Diskussion mit real anwesenden Personen geführt wird. Dies machen wir für den Großteil unserer Leser, der sachlich und konstruktiv über ein Thema sprechen möchte.
Du willst nichts verpassen?
Du möchtest über ähnliche News und Beiträge wie "OpenAI steht vor neuen Herausforderungen durch KI-Halluzinationen" informiert werden? Neben der E-Mail-Benachrichtigung habt ihr auch die Möglichkeit, den Feed dieses Beitrags zu abonnieren. Wer natürlich alles lesen möchte, der sollte den RSS-Hauptfeed oder IT BOLTWISE® bei Google News wie auch bei Bing News abonnieren.
Nutze die Google-Suchmaschine für eine weitere Themenrecherche: »OpenAI steht vor neuen Herausforderungen durch KI-Halluzinationen« bei Google Deutschland suchen, bei Bing oder Google News!