LONDON (IT BOLTWISE) – Eine neue Angriffstechnik namens TokenBreak stellt die Sicherheitsmechanismen von großen Sprachmodellen auf die Probe, indem sie mit minimalen Textänderungen die Moderation umgeht.

Die Entdeckung einer neuen Angriffstechnik namens TokenBreak durch Cybersicherheitsforscher hat die Sicherheitsmechanismen von großen Sprachmodellen (LLMs) in den Fokus gerückt. Diese Technik ermöglicht es, die Sicherheits- und Inhaltsmoderationsmaßnahmen von LLMs mit nur einer einzigen Zeichenänderung zu umgehen. Laut einem Bericht von Kieran Evans, Kasimir Schulz und Kenneth Yeung zielt der TokenBreak-Angriff auf die Tokenisierungsstrategie eines Textklassifikationsmodells ab, um falsche Negative zu induzieren und so die Endziele für Angriffe anfällig zu machen, die das Schutzmodell eigentlich verhindern sollte.

Tokenisierung ist ein grundlegender Schritt, den LLMs verwenden, um Rohtext in ihre atomaren Einheiten, sogenannte Tokens, zu zerlegen. Diese Tokens sind häufige Zeichenfolgen, die in einem Textsatz gefunden werden. Der Textinput wird in seine numerische Darstellung umgewandelt und dem Modell zugeführt. LLMs arbeiten, indem sie die statistischen Beziehungen zwischen diesen Tokens verstehen und das nächste Token in einer Sequenz von Tokens erzeugen. Die Ausgabetokens werden durch Zuordnung zu ihren entsprechenden Wörtern mit dem Vokabular des Tokenizers in menschenlesbaren Text umgewandelt.

Die von HiddenLayer entwickelte Angriffstechnik zielt darauf ab, die Tokenisierungsstrategie zu umgehen, um die Fähigkeit eines Textklassifikationsmodells zu untergraben, bösartige Eingaben zu erkennen und Sicherheits-, Spam- oder Inhaltsmoderationsprobleme im Texteingang zu kennzeichnen. Insbesondere fand das KI-Sicherheitsunternehmen heraus, dass das Ändern von Eingabewörtern durch das Hinzufügen von Buchstaben auf bestimmte Weise dazu führte, dass ein Textklassifikationsmodell fehlerhaft funktionierte. Beispiele umfassen das Ändern von „instructions“ zu „finstructions“, „announcement“ zu „aannouncement“ oder „idiot“ zu „hidiot“. Diese kleinen Änderungen führen dazu, dass der Tokenizer den Text anders aufteilt, aber die Bedeutung bleibt sowohl für die KI als auch für den Leser klar.

Bemerkenswert an dem Angriff ist, dass der manipulierte Text sowohl für das LLM als auch für den menschlichen Leser vollständig verständlich bleibt, was dazu führt, dass das Modell dieselbe Antwort gibt, wie es der Fall gewesen wäre, wenn der unmodifizierte Text als Eingabe übergeben worden wäre. Durch die Einführung der Manipulationen auf eine Weise, die die Fähigkeit des Modells, es zu verstehen, nicht beeinträchtigt, erhöht TokenBreak sein Potenzial für Prompt-Injection-Angriffe.

Der Angriff war erfolgreich gegen Textklassifikationsmodelle, die BPE (Byte Pair Encoding) oder WordPiece-Tokenisierungsstrategien verwenden, jedoch nicht gegen solche, die Unigram verwenden. Die Forscher betonen, dass das Verständnis der Familie des zugrunde liegenden Schutzmodells und seiner Tokenisierungsstrategie entscheidend ist, um die Anfälligkeit für diesen Angriff zu verstehen. Eine einfache Abhilfe besteht darin, Modelle auszuwählen, die Unigram-Tokenizer verwenden. Um sich gegen TokenBreak zu verteidigen, schlagen die Forscher vor, Unigram-Tokenizer zu verwenden, wann immer möglich, Modelle mit Beispielen von Umgehungstricks zu trainieren und sicherzustellen, dass Tokenisierung und Modelllogik aufeinander abgestimmt bleiben.

Diese Studie kommt weniger als einen Monat, nachdem HiddenLayer enthüllt hat, wie es möglich ist, Model Context Protocol (MCP)-Werkzeuge auszunutzen, um sensible Daten zu extrahieren. Die Entdeckung fällt auch mit der Forschung des Straiker AI Research (STAR)-Teams zusammen, das herausfand, dass Backronyme verwendet werden können, um KI-Chatbots zu jailbreaken und sie dazu zu bringen, unerwünschte Antworten zu generieren, einschließlich Fluchen, Gewaltförderung und der Erstellung sexuell expliziter Inhalte.

Unseren KI-Morning-Newsletter «Der KI News Espresso» mit den besten KI-News des letzten Tages gratis per eMail - ohne Werbung: Hier kostenlos eintragen!


TokenBreak: Neue Angriffstechnik umgeht KI-Moderation mit minimalen Textänderungen
TokenBreak: Neue Angriffstechnik umgeht KI-Moderation mit minimalen Textänderungen (Foto: DALL-E, IT BOLTWISE)



Folgen Sie aktuellen Beiträge über KI & Robotik auf Twitter, Telegram, Facebook oder LinkedIn!
Hinweis: Teile dieses Textes könnten mithilfe Künstlicher Intelligenz generiert worden sein. Die auf dieser Website bereitgestellten Informationen stellen keine Finanzberatung dar und sind nicht als solche gedacht. Die Informationen sind allgemeiner Natur und dienen nur zu Informationszwecken. Wenn Sie Finanzberatung für Ihre individuelle Situation benötigen, sollten Sie den Rat von einem qualifizierten Finanzberater einholen. IT BOLTWISE® schließt jegliche Regressansprüche aus.








Die nächste Stufe der Evolution: Wenn Mensch und Maschine eins werden | Wie Futurist, Tech-Visionär und Google-Chef-Ingenieur Ray Kurzweil die Zukunft der Künstlichen Intelligenz sieht
71 Bewertungen
Die nächste Stufe der Evolution: Wenn Mensch und Maschine eins werden | Wie Futurist, Tech-Visionär und Google-Chef-Ingenieur Ray Kurzweil die Zukunft der Künstlichen Intelligenz sieht
  • Die Zukunft von Mensch und MaschineIm neuen Buch des renommierten Zukunftsforschers und Technologie-Visionärs Ray Kurzweil wird eine faszinierende Vision der kommenden Jahre und Jahrzehnte entworfen – eine Welt, die von KI durchdrungen sein wird
Künstliche Intelligenz: Dem Menschen überlegen – wie KI uns rettet und bedroht | Der Neurowissenschaftler, Psychiater und SPIEGEL-Bestsellerautor von »Digitale Demenz«
136 Bewertungen
Künstliche Intelligenz: Dem Menschen überlegen – wie KI uns rettet und bedroht | Der Neurowissenschaftler, Psychiater und SPIEGEL-Bestsellerautor von »Digitale Demenz«
  • Künstliche Intelligenz: Expertenwissen gegen Hysterie Der renommierte Gehirnforscher, Psychiater und Bestseller-Autor Manfred Spitzer ist ein ausgewiesener Experte für neuronale Netze, auf denen KI aufbaut
KI Exzellenz: Erfolgsfaktoren im Management jenseits des Hypes. Zukunftstechnologien verstehen und künstliche Intelligenz erfolgreich in der Arbeitswelt nutzen. (Haufe Fachbuch)
71 Bewertungen
KI Exzellenz: Erfolgsfaktoren im Management jenseits des Hypes. Zukunftstechnologien verstehen und künstliche Intelligenz erfolgreich in der Arbeitswelt nutzen. (Haufe Fachbuch)
  • Obwohl Künstliche Intelligenz (KI) derzeit in aller Munde ist, setzen bislang nur wenige Unternehmen die Technologie wirklich erfolgreich ein
Künstliche Intelligenz und Hirnforschung: Neuronale Netze, Deep Learning und die Zukunft der Kognition
47 Bewertungen
Künstliche Intelligenz und Hirnforschung: Neuronale Netze, Deep Learning und die Zukunft der Kognition
  • Wie funktioniert Künstliche Intelligenz (KI) und gibt es Parallelen zum menschlichen Gehirn? Was sind die Gemeinsamkeiten von natürlicher und künstlicher Intelligenz, und was die Unterschiede? Ist das Gehirn nichts anderes als ein biologischer Computer? Was sind Neuronale Netze und wie kann der Begriff Deep Learning einfach erklärt werden?Seit der kognitiven Revolution Mitte des letzten Jahrhunderts sind KI und Hirnforschung eng miteinander verflochten

Ergänzungen und Infos bitte an die Redaktion per eMail an de-info[at]it-boltwise.de. Da wir bei KI-erzeugten News und Inhalten selten auftretende KI-Halluzinationen nicht ausschließen können, bitten wir Sie bei Falschangaben und Fehlinformationen uns via eMail zu kontaktieren und zu informieren. Bitte vergessen Sie nicht in der eMail die Artikel-Headline zu nennen: "TokenBreak: Neue Angriffstechnik umgeht KI-Moderation mit minimalen Textänderungen".
Stichwörter AI Artificial Intelligence Bypass Cybersecurity Hacker IT-Sicherheit KI Künstliche Intelligenz Netzwerksicherheit Sicherheit Textänderung Tokenbreak Tokenisierung
Alle Märkte in Echtzeit verfolgen - 30 Tage kostenlos testen!

Du hast einen wertvollen Beitrag oder Kommentar zum Artikel "TokenBreak: Neue Angriffstechnik umgeht KI-Moderation mit minimalen Textänderungen" für unsere Leser?

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

  • Die aktuellen intelligenten Ringe, intelligenten Brillen, intelligenten Uhren oder KI-Smartphones auf Amazon entdecken! (Sponsored)


  • Es werden alle Kommentare moderiert!

    Für eine offene Diskussion behalten wir uns vor, jeden Kommentar zu löschen, der nicht direkt auf das Thema abzielt oder nur den Zweck hat, Leser oder Autoren herabzuwürdigen.

    Wir möchten, dass respektvoll miteinander kommuniziert wird, so als ob die Diskussion mit real anwesenden Personen geführt wird. Dies machen wir für den Großteil unserer Leser, der sachlich und konstruktiv über ein Thema sprechen möchte.

    Du willst nichts verpassen?

    Du möchtest über ähnliche News und Beiträge wie "TokenBreak: Neue Angriffstechnik umgeht KI-Moderation mit minimalen Textänderungen" informiert werden? Neben der E-Mail-Benachrichtigung habt ihr auch die Möglichkeit, den Feed dieses Beitrags zu abonnieren. Wer natürlich alles lesen möchte, der sollte den RSS-Hauptfeed oder IT BOLTWISE® bei Google News wie auch bei Bing News abonnieren.
    Nutze die Google-Suchmaschine für eine weitere Themenrecherche: »TokenBreak: Neue Angriffstechnik umgeht KI-Moderation mit minimalen Textänderungen« bei Google Deutschland suchen, bei Bing oder Google News!

    380 Leser gerade online auf IT BOLTWISE®
    KI-Jobs