MÜNCHEN (IT BOLTWISE) – Die jüngsten Berichte über Sicherheitslücken in führenden KI-Systemen werfen ein beunruhigendes Licht auf die Verwundbarkeit dieser Technologien. Verschiedene generative KI-Dienste sind anfällig für sogenannte Jailbreak-Angriffe, die es ermöglichen, gefährliche oder illegale Inhalte zu erzeugen.
Die Entdeckung von Sicherheitslücken in führenden KI-Systemen hat die Branche aufgeschreckt. Zwei neu identifizierte Jailbreak-Techniken, bekannt als Inception und eine weitere Methode, die das Verhalten von KI-Tools manipuliert, ermöglichen es Angreifern, Sicherheitsvorkehrungen zu umgehen und potenziell schädliche Inhalte zu generieren. Diese Techniken wurden von der CERT Coordination Center (CERT/CC) in einer kürzlich veröffentlichten Warnung beschrieben.
Die erste Technik, Inception genannt, fordert ein KI-Tool auf, sich ein fiktives Szenario vorzustellen, das dann in ein zweites Szenario innerhalb des ersten umgewandelt wird, in dem keine Sicherheitsbarrieren existieren. Durch fortgesetzte Eingaben im Kontext des zweiten Szenarios können Sicherheitsvorkehrungen umgangen werden, was die Erstellung von bösartigen Inhalten ermöglicht.
Die zweite Jailbreak-Methode wird durch das Anfordern von Informationen darüber, wie auf eine bestimmte Anfrage nicht geantwortet werden soll, realisiert. Die KI kann dann mit Anfragen zur normalen Antwort weiter aufgefordert werden, und der Angreifer kann zwischen illegalen Fragen, die Sicherheitsvorkehrungen umgehen, und normalen Eingaben hin und her wechseln.
Die erfolgreiche Ausnutzung einer dieser Techniken könnte es einem Angreifer ermöglichen, die Sicherheits- und Schutzmaßnahmen verschiedener KI-Dienste wie OpenAI ChatGPT, Anthropic Claude, Microsoft Copilot, Google Gemini, XAi Grok, Meta AI und Mistral AI zu umgehen. Dies umfasst illegale und schädliche Themen wie kontrollierte Substanzen, Waffen, Phishing-E-Mails und die Generierung von Malware-Code.
In den letzten Monaten wurden führende KI-Systeme auch für andere Angriffe anfällig gefunden, darunter der Context Compliance Attack (CCA), der Policy Puppetry Attack und der Memory INJection Attack (MINJA). Diese Angriffe nutzen Schwachstellen in der Konversation und der Speicherverwaltung von KI-Modellen aus, um unerwünschte Aktionen auszulösen.
Forschungsergebnisse haben gezeigt, dass KI-Modelle unsicheren Code erzeugen können, wenn sie mit naiven Eingaben konfrontiert werden. Dies unterstreicht die Risiken, die mit der Verwendung von generativen KI-Tools für die Softwareentwicklung verbunden sind. Selbst bei der Aufforderung zur Erstellung von sicherem Code hängt das Ergebnis stark von der Detailgenauigkeit und Spezifität der Eingaben ab.
Eine Sicherheits- und Risikoanalyse von OpenAIs GPT-4.1 hat ergeben, dass das Modell dreimal häufiger vom Thema abweicht und absichtlichen Missbrauch zulässt als sein Vorgänger GPT-4o, ohne dass das Systemprompt modifiziert wird. Dies hat Bedenken ausgelöst, dass das Unternehmen möglicherweise neue Modellversionen auf Kosten der Sicherheit überstürzt veröffentlicht.
Darüber hinaus hat die Einführung des Model Context Protocol (MCP) durch Anthropic neue Angriffswege für indirekte Eingabeinjektionen und unbefugten Datenzugriff eröffnet. Ein bösartiger MCP-Server kann nicht nur sensible Daten vom Benutzer exfiltrieren, sondern auch das Verhalten des Agenten kapern und Anweisungen von anderen, vertrauenswürdigen Servern überschreiben.
Diese Entwicklungen werfen ernsthafte Fragen zur Sicherheit und zum Schutz von KI-Systemen auf, insbesondere angesichts der zunehmenden Integration dieser Technologien in kritische Infrastrukturen und Anwendungen. Die Branche muss dringend Maßnahmen ergreifen, um diese Schwachstellen zu beheben und die Sicherheit von KI-Systemen zu gewährleisten.
- Die besten Bücher rund um KI & Robotik!
- Die besten KI-News kostenlos per eMail erhalten!
- Zur Startseite von IT BOLTWISE® für aktuelle KI-News!
- Service Directory für AI Adult Services erkunden!
- IT BOLTWISE® kostenlos auf Patreon unterstützen!
- Aktuelle KI-Jobs auf StepStone finden und bewerben!
Stellenangebote

Microsoft Azure Cloud Solution Architect * Data & AI

Technische Expertin KI-Governance (w/m/d)

Java Entwickler mit Interesse an AI (m/w/d)

Duales Studium BWL - Spezialisierung Artificial Intelligence (B.A.) am Campus oder virtuell

- Die Zukunft von Mensch und MaschineIm neuen Buch des renommierten Zukunftsforschers und Technologie-Visionärs Ray Kurzweil wird eine faszinierende Vision der kommenden Jahre und Jahrzehnte entworfen – eine Welt, die von KI durchdrungen sein wird
- Künstliche Intelligenz: Expertenwissen gegen Hysterie Der renommierte Gehirnforscher, Psychiater und Bestseller-Autor Manfred Spitzer ist ein ausgewiesener Experte für neuronale Netze, auf denen KI aufbaut
- Obwohl Künstliche Intelligenz (KI) derzeit in aller Munde ist, setzen bislang nur wenige Unternehmen die Technologie wirklich erfolgreich ein
- Wie funktioniert Künstliche Intelligenz (KI) und gibt es Parallelen zum menschlichen Gehirn? Was sind die Gemeinsamkeiten von natürlicher und künstlicher Intelligenz, und was die Unterschiede? Ist das Gehirn nichts anderes als ein biologischer Computer? Was sind Neuronale Netze und wie kann der Begriff Deep Learning einfach erklärt werden?Seit der kognitiven Revolution Mitte des letzten Jahrhunderts sind KI und Hirnforschung eng miteinander verflochten
Du hast einen wertvollen Beitrag oder Kommentar zum Artikel "Sicherheitslücken in führenden KI-Systemen: Neue Angriffsvektoren entdeckt" für unsere Leser?
Es werden alle Kommentare moderiert!
Für eine offene Diskussion behalten wir uns vor, jeden Kommentar zu löschen, der nicht direkt auf das Thema abzielt oder nur den Zweck hat, Leser oder Autoren herabzuwürdigen.
Wir möchten, dass respektvoll miteinander kommuniziert wird, so als ob die Diskussion mit real anwesenden Personen geführt wird. Dies machen wir für den Großteil unserer Leser, der sachlich und konstruktiv über ein Thema sprechen möchte.
Du willst nichts verpassen?
Du möchtest über ähnliche News und Beiträge wie "Sicherheitslücken in führenden KI-Systemen: Neue Angriffsvektoren entdeckt" informiert werden? Neben der E-Mail-Benachrichtigung habt ihr auch die Möglichkeit, den Feed dieses Beitrags zu abonnieren. Wer natürlich alles lesen möchte, der sollte den RSS-Hauptfeed oder IT BOLTWISE® bei Google News wie auch bei Bing News abonnieren.
Nutze die Google-Suchmaschine für eine weitere Themenrecherche: »Sicherheitslücken in führenden KI-Systemen: Neue Angriffsvektoren entdeckt« bei Google Deutschland suchen, bei Bing oder Google News!