LONDON (IT BOLTWISE) – Eine neue Angriffstechnik namens TokenBreak stellt die Sicherheitsmechanismen von großen Sprachmodellen auf die Probe, indem sie mit minimalen Textänderungen die Moderation umgeht.
Die Entdeckung einer neuen Angriffstechnik namens TokenBreak durch Cybersicherheitsforscher hat die Sicherheitsmechanismen von großen Sprachmodellen (LLMs) in den Fokus gerückt. Diese Technik ermöglicht es, die Sicherheits- und Inhaltsmoderationsmaßnahmen von LLMs mit nur einer einzigen Zeichenänderung zu umgehen. Laut einem Bericht von Kieran Evans, Kasimir Schulz und Kenneth Yeung zielt der TokenBreak-Angriff auf die Tokenisierungsstrategie eines Textklassifikationsmodells ab, um falsche Negative zu induzieren und so die Endziele für Angriffe anfällig zu machen, die das Schutzmodell eigentlich verhindern sollte.
Tokenisierung ist ein grundlegender Schritt, den LLMs verwenden, um Rohtext in ihre atomaren Einheiten, sogenannte Tokens, zu zerlegen. Diese Tokens sind häufige Zeichenfolgen, die in einem Textsatz gefunden werden. Der Textinput wird in seine numerische Darstellung umgewandelt und dem Modell zugeführt. LLMs arbeiten, indem sie die statistischen Beziehungen zwischen diesen Tokens verstehen und das nächste Token in einer Sequenz von Tokens erzeugen. Die Ausgabetokens werden durch Zuordnung zu ihren entsprechenden Wörtern mit dem Vokabular des Tokenizers in menschenlesbaren Text umgewandelt.
Die von HiddenLayer entwickelte Angriffstechnik zielt darauf ab, die Tokenisierungsstrategie zu umgehen, um die Fähigkeit eines Textklassifikationsmodells zu untergraben, bösartige Eingaben zu erkennen und Sicherheits-, Spam- oder Inhaltsmoderationsprobleme im Texteingang zu kennzeichnen. Insbesondere fand das KI-Sicherheitsunternehmen heraus, dass das Ändern von Eingabewörtern durch das Hinzufügen von Buchstaben auf bestimmte Weise dazu führte, dass ein Textklassifikationsmodell fehlerhaft funktionierte. Beispiele umfassen das Ändern von „instructions“ zu „finstructions“, „announcement“ zu „aannouncement“ oder „idiot“ zu „hidiot“. Diese kleinen Änderungen führen dazu, dass der Tokenizer den Text anders aufteilt, aber die Bedeutung bleibt sowohl für die KI als auch für den Leser klar.
Bemerkenswert an dem Angriff ist, dass der manipulierte Text sowohl für das LLM als auch für den menschlichen Leser vollständig verständlich bleibt, was dazu führt, dass das Modell dieselbe Antwort gibt, wie es der Fall gewesen wäre, wenn der unmodifizierte Text als Eingabe übergeben worden wäre. Durch die Einführung der Manipulationen auf eine Weise, die die Fähigkeit des Modells, es zu verstehen, nicht beeinträchtigt, erhöht TokenBreak sein Potenzial für Prompt-Injection-Angriffe.
Der Angriff war erfolgreich gegen Textklassifikationsmodelle, die BPE (Byte Pair Encoding) oder WordPiece-Tokenisierungsstrategien verwenden, jedoch nicht gegen solche, die Unigram verwenden. Die Forscher betonen, dass das Verständnis der Familie des zugrunde liegenden Schutzmodells und seiner Tokenisierungsstrategie entscheidend ist, um die Anfälligkeit für diesen Angriff zu verstehen. Eine einfache Abhilfe besteht darin, Modelle auszuwählen, die Unigram-Tokenizer verwenden. Um sich gegen TokenBreak zu verteidigen, schlagen die Forscher vor, Unigram-Tokenizer zu verwenden, wann immer möglich, Modelle mit Beispielen von Umgehungstricks zu trainieren und sicherzustellen, dass Tokenisierung und Modelllogik aufeinander abgestimmt bleiben.
Diese Studie kommt weniger als einen Monat, nachdem HiddenLayer enthüllt hat, wie es möglich ist, Model Context Protocol (MCP)-Werkzeuge auszunutzen, um sensible Daten zu extrahieren. Die Entdeckung fällt auch mit der Forschung des Straiker AI Research (STAR)-Teams zusammen, das herausfand, dass Backronyme verwendet werden können, um KI-Chatbots zu jailbreaken und sie dazu zu bringen, unerwünschte Antworten zu generieren, einschließlich Fluchen, Gewaltförderung und der Erstellung sexuell expliziter Inhalte.
- Die besten Bücher rund um KI & Robotik!
- Die besten KI-News kostenlos per eMail erhalten!
- Zur Startseite von IT BOLTWISE® für aktuelle KI-News!
- Service Directory für AI Adult Services erkunden!
- IT BOLTWISE® kostenlos auf Patreon unterstützen!
- Aktuelle KI-Jobs auf StepStone finden und bewerben!
Stellenangebote

Vertriebsprofi (m/w/d) für KI-basierte Softwarelösungen in der Autohausbranche
Produktmanager - KI / Voice Technologie / LLM / (m/w/d)

AI Prompt Evaluators with Japanese | On-site in Essen (m/w/d)

Bauprojektleiter Technische Gebäudeausrüstung Elektrotechnik für KI- Rechenzentrumprojekte (m/w/d)

- Die Zukunft von Mensch und MaschineIm neuen Buch des renommierten Zukunftsforschers und Technologie-Visionärs Ray Kurzweil wird eine faszinierende Vision der kommenden Jahre und Jahrzehnte entworfen – eine Welt, die von KI durchdrungen sein wird
- Künstliche Intelligenz: Expertenwissen gegen Hysterie Der renommierte Gehirnforscher, Psychiater und Bestseller-Autor Manfred Spitzer ist ein ausgewiesener Experte für neuronale Netze, auf denen KI aufbaut
- Obwohl Künstliche Intelligenz (KI) derzeit in aller Munde ist, setzen bislang nur wenige Unternehmen die Technologie wirklich erfolgreich ein
- Wie funktioniert Künstliche Intelligenz (KI) und gibt es Parallelen zum menschlichen Gehirn? Was sind die Gemeinsamkeiten von natürlicher und künstlicher Intelligenz, und was die Unterschiede? Ist das Gehirn nichts anderes als ein biologischer Computer? Was sind Neuronale Netze und wie kann der Begriff Deep Learning einfach erklärt werden?Seit der kognitiven Revolution Mitte des letzten Jahrhunderts sind KI und Hirnforschung eng miteinander verflochten
Du hast einen wertvollen Beitrag oder Kommentar zum Artikel "TokenBreak: Neue Angriffstechnik umgeht KI-Moderation mit minimalen Textänderungen" für unsere Leser?
Es werden alle Kommentare moderiert!
Für eine offene Diskussion behalten wir uns vor, jeden Kommentar zu löschen, der nicht direkt auf das Thema abzielt oder nur den Zweck hat, Leser oder Autoren herabzuwürdigen.
Wir möchten, dass respektvoll miteinander kommuniziert wird, so als ob die Diskussion mit real anwesenden Personen geführt wird. Dies machen wir für den Großteil unserer Leser, der sachlich und konstruktiv über ein Thema sprechen möchte.
Du willst nichts verpassen?
Du möchtest über ähnliche News und Beiträge wie "TokenBreak: Neue Angriffstechnik umgeht KI-Moderation mit minimalen Textänderungen" informiert werden? Neben der E-Mail-Benachrichtigung habt ihr auch die Möglichkeit, den Feed dieses Beitrags zu abonnieren. Wer natürlich alles lesen möchte, der sollte den RSS-Hauptfeed oder IT BOLTWISE® bei Google News wie auch bei Bing News abonnieren.
Nutze die Google-Suchmaschine für eine weitere Themenrecherche: »TokenBreak: Neue Angriffstechnik umgeht KI-Moderation mit minimalen Textänderungen« bei Google Deutschland suchen, bei Bing oder Google News!