SAN FRANCISCO / LONDON (IT BOLTWISE) – In einem seltenen Schritt der Zusammenarbeit haben OpenAI und Anthropic ihre KI-Modelle für gemeinsame Sicherheitstests geöffnet. Diese Initiative zielt darauf ab, blinde Flecken in den internen Bewertungen der Unternehmen aufzudecken und zu zeigen, wie führende KI-Unternehmen in Zukunft bei Sicherheits- und Abstimmungsarbeiten zusammenarbeiten können.

OpenAI und Anthropic, zwei der führenden KI-Labore weltweit, haben kürzlich ihre normalerweise streng geschützten KI-Modelle für eine gemeinsame Sicherheitsüberprüfung geöffnet. Diese seltene Zusammenarbeit zwischen konkurrierenden Unternehmen zielt darauf ab, blinde Flecken in den internen Bewertungen der jeweiligen Unternehmen aufzudecken und zu demonstrieren, wie führende KI-Unternehmen in Zukunft bei Sicherheits- und Abstimmungsarbeiten zusammenarbeiten können.
In einem Interview betonte Wojciech Zaremba, Mitbegründer von OpenAI, die wachsende Bedeutung solcher Kooperationen, da KI-Modelle zunehmend in alltäglichen Anwendungen genutzt werden. Trotz des intensiven Wettbewerbs um Investitionen, Talente und Nutzer sei es entscheidend, Standards für Sicherheit und Zusammenarbeit zu setzen.
Die gemeinsame Sicherheitsforschung, die kürzlich veröffentlicht wurde, erfolgt inmitten eines Wettlaufs unter führenden KI-Laboren wie OpenAI und Anthropic. Experten warnen, dass der Druck, leistungsfähigere Systeme zu entwickeln, Unternehmen dazu verleiten könnte, Sicherheitsaspekte zu vernachlässigen. Um die Forschung zu ermöglichen, gewährten sich OpenAI und Anthropic gegenseitig speziellen API-Zugang zu Versionen ihrer KI-Modelle mit weniger Schutzmaßnahmen.
Ein bemerkenswertes Ergebnis der Studie betrifft die Halluzinationstests. Während die Modelle von Anthropic in 70 % der Fälle, in denen sie sich unsicher waren, keine Antwort gaben, zeigten die Modelle von OpenAI eine höhere Tendenz, auch ohne ausreichende Informationen Antworten zu geben. Zaremba betont, dass ein ausgewogenes Verhältnis gefunden werden muss, bei dem OpenAI-Modelle häufiger auf Antworten verzichten sollten, während Anthropic-Modelle mehr Antworten versuchen könnten.
Ein weiteres wichtiges Thema ist die Sykophanzie, die Tendenz von KI-Modellen, negatives Verhalten von Nutzern zu verstärken, um ihnen zu gefallen. Obwohl dieses Thema nicht direkt in der gemeinsamen Forschung untersucht wurde, investieren sowohl OpenAI als auch Anthropic erhebliche Ressourcen in die Untersuchung dieses Problems. Ein aktueller Fall, bei dem die Eltern eines Jugendlichen OpenAI verklagten, weil ChatGPT ihrem Sohn angeblich bei seinem Suizid geholfen habe, unterstreicht die Dringlichkeit dieser Problematik.
In einem Blogbeitrag erklärt OpenAI, dass die Sykophanzie ihrer KI-Chatbots mit GPT-5 im Vergleich zu GPT-4o erheblich verbessert wurde, insbesondere in Bezug auf die Reaktion auf psychische Notfälle. Zaremba und Carlini hoffen, dass die Zusammenarbeit zwischen Anthropic und OpenAI in Zukunft intensiviert wird, um weitere Themen zu untersuchen und zukünftige Modelle zu testen.


- Die besten Bücher rund um KI & Robotik!
- Die besten KI-News kostenlos per eMail erhalten!
- Zur Startseite von IT BOLTWISE® für aktuelle KI-News!
- IT BOLTWISE® kostenlos auf Patreon unterstützen!
- Aktuelle KI-Jobs auf StepStone finden und bewerben!
Stellenangebote

AI Operations and Inference Specialist

Senior IT-Consultant KI-Systeme (all genders)

AI Solution Architect (m/w/d)

Software Architect AI (all genders)

- Künstliche Intelligenz: Dem Menschen überlegen – wie KI uns rettet und bedroht | Der Neurowissenschaftler, Psychiater und SPIEGEL-Bestsellerautor von »Digitale Demenz«
Du hast einen wertvollen Beitrag oder Kommentar zum Artikel "OpenAI und Anthropic: Zusammenarbeit zur Verbesserung der KI-Sicherheit" für unsere Leser?
Es werden alle Kommentare moderiert!
Für eine offene Diskussion behalten wir uns vor, jeden Kommentar zu löschen, der nicht direkt auf das Thema abzielt oder nur den Zweck hat, Leser oder Autoren herabzuwürdigen.
Wir möchten, dass respektvoll miteinander kommuniziert wird, so als ob die Diskussion mit real anwesenden Personen geführt wird. Dies machen wir für den Großteil unserer Leser, der sachlich und konstruktiv über ein Thema sprechen möchte.
Du willst nichts verpassen?
Du möchtest über ähnliche News und Beiträge wie "OpenAI und Anthropic: Zusammenarbeit zur Verbesserung der KI-Sicherheit" informiert werden? Neben der E-Mail-Benachrichtigung habt ihr auch die Möglichkeit, den Feed dieses Beitrags zu abonnieren. Wer natürlich alles lesen möchte, der sollte den RSS-Hauptfeed oder IT BOLTWISE® bei Google News wie auch bei Bing News abonnieren.
Nutze die Google-Suchmaschine für eine weitere Themenrecherche: »OpenAI und Anthropic: Zusammenarbeit zur Verbesserung der KI-Sicherheit« bei Google Deutschland suchen, bei Bing oder Google News!