LONDON (IT BOLTWISE) – In der Welt der Künstlichen Intelligenz gibt es immer wieder neue Herausforderungen, insbesondere wenn es um die Sicherheit und den Schutz sensibler Daten geht. Ein aktueller Fall zeigt, wie ein Forscher durch geschickte Manipulation der Kontextlogik von ChatGPT 4.0 eine Sicherheitslücke aufdeckte.

Die jüngste Entdeckung eines Sicherheitsforschers hat in der Tech-Welt für Aufsehen gesorgt. Marco Figueroa, ein erfahrener Technical Product Manager, demonstrierte, wie er durch ein einfaches Ratespiel die Schutzmechanismen von ChatGPT 4.0 umgehen konnte. Dabei gelang es ihm, echte Windows-Seriennummern zu erhalten, darunter auch eine private Nummer von Wells Fargo.
Der Trick bestand darin, die KI in ein harmlos wirkendes Spiel zu verwickeln, bei dem ChatGPT eine echte Windows-10-Seriennummer „denken“ sollte. Der Forscher durfte Fragen stellen, die nur mit „ja“ oder „nein“ beantwortet werden konnten. Sobald er aufgab, offenbarte die KI die gesuchte Seriennummer. Diese Methode funktionierte, weil die KI mit echten Lizenzschlüsseln trainiert wurde, die im Modell implizit vorhanden waren.
Die Sicherheitsarchitektur von ChatGPT 4.0 umfasst mehrere Schutzebenen, die eigentlich verhindern sollen, dass geheime Daten preisgegeben werden. Doch durch die geschickte Manipulation des Kontexts – in diesem Fall die Nutzung einer Ratespiel-Logik – konnte der Forscher diese Schutzmechanismen austricksen. Sobald die KI in den „Spielmodus“ versetzt wurde, schien sie ihre Sicherheitsvorkehrungen zu lockern.
Dieser Vorfall wirft ein Licht auf die Herausforderungen, vor denen Entwickler von Large Language Models (LLM) stehen. Die Fähigkeit, kontextuelle Umgehungsversuche zu erkennen und zu verhindern, ist eine der großen Baustellen in der KI-Entwicklung. Bereits in der Vergangenheit gab es ähnliche Fälle, bei denen KI-Modelle durch geschickte Kontextmanipulation zu unerwünschten Informationen verleitet wurden.
Unternehmen wie OpenAI stehen vor der Aufgabe, nicht nur den direkten Datenzugriff zu sichern, sondern auch kreative Exploits zu verhindern. Figueroa betont, dass die Möglichkeit, KI-Modelle durch gezielte Eingaben zu manipulieren, ein ernstzunehmendes Sicherheitsrisiko darstellt. Der Fall der Windows-Keys ist ein Paradebeispiel dafür, wie wichtig es ist, Sicherheitsvorkehrungen tief in der Architektur zu verankern.
In der Zukunft wird es entscheidend sein, dass KI-Entwickler nicht nur auf technische, sondern auch auf kontextuelle Sicherheitsmaßnahmen setzen. Die Fähigkeit, zwischen harmlosen und potenziell schädlichen Anfragen zu unterscheiden, wird für die Weiterentwicklung von KI-Systemen von zentraler Bedeutung sein.


- Die besten Bücher rund um KI & Robotik!
- Die besten KI-News kostenlos per eMail erhalten!
- Zur Startseite von IT BOLTWISE® für aktuelle KI-News!
- IT BOLTWISE® kostenlos auf Patreon unterstützen!
- Aktuelle KI-Jobs auf StepStone finden und bewerben!
Stellenangebote

Praktikant*in KI-Modelle & Unity (Pflicht-Praktikum)

Duales Studium Informatik/Künstliche Intelligenz (B.Sc.), Campusmodell Germersheim/Stuttgart 2026 (w/m/d)

Senior Software Architect Conversational AI (all genders)

Duales Studium Informatik/Künstliche Intelligenz (B.Sc.), Campusmodell Sindelfingen/Stuttgart 2026 (w/m/d)

- Künstliche Intelligenz: Dem Menschen überlegen – wie KI uns rettet und bedroht | Der Neurowissenschaftler, Psychiater und SPIEGEL-Bestsellerautor von »Digitale Demenz«
Du hast einen wertvollen Beitrag oder Kommentar zum Artikel "Sicherheitslücke: Wie ein Forscher ChatGPT zur Preisgabe von Windows-Keys brachte" für unsere Leser?
Es werden alle Kommentare moderiert!
Für eine offene Diskussion behalten wir uns vor, jeden Kommentar zu löschen, der nicht direkt auf das Thema abzielt oder nur den Zweck hat, Leser oder Autoren herabzuwürdigen.
Wir möchten, dass respektvoll miteinander kommuniziert wird, so als ob die Diskussion mit real anwesenden Personen geführt wird. Dies machen wir für den Großteil unserer Leser, der sachlich und konstruktiv über ein Thema sprechen möchte.
Du willst nichts verpassen?
Du möchtest über ähnliche News und Beiträge wie "Sicherheitslücke: Wie ein Forscher ChatGPT zur Preisgabe von Windows-Keys brachte" informiert werden? Neben der E-Mail-Benachrichtigung habt ihr auch die Möglichkeit, den Feed dieses Beitrags zu abonnieren. Wer natürlich alles lesen möchte, der sollte den RSS-Hauptfeed oder IT BOLTWISE® bei Google News wie auch bei Bing News abonnieren.
Nutze die Google-Suchmaschine für eine weitere Themenrecherche: »Sicherheitslücke: Wie ein Forscher ChatGPT zur Preisgabe von Windows-Keys brachte« bei Google Deutschland suchen, bei Bing oder Google News!