LONDON (IT BOLTWISE) – Eine neue Angriffstechnik namens TokenBreak stellt die Sicherheitsmechanismen von großen Sprachmodellen auf die Probe, indem sie mit minimalen Textänderungen die Moderation umgeht.

 Heutige Tagesdeals bei Amazon!  ˗ˋˏ$ˎˊ˗

Die Entdeckung einer neuen Angriffstechnik namens TokenBreak durch Cybersicherheitsforscher hat die Sicherheitsmechanismen von großen Sprachmodellen (LLMs) in den Fokus gerückt. Diese Technik ermöglicht es, die Sicherheits- und Inhaltsmoderationsmaßnahmen von LLMs mit nur einer einzigen Zeichenänderung zu umgehen. Laut einem Bericht von Kieran Evans, Kasimir Schulz und Kenneth Yeung zielt der TokenBreak-Angriff auf die Tokenisierungsstrategie eines Textklassifikationsmodells ab, um falsche Negative zu induzieren und so die Endziele für Angriffe anfällig zu machen, die das Schutzmodell eigentlich verhindern sollte.

Tokenisierung ist ein grundlegender Schritt, den LLMs verwenden, um Rohtext in ihre atomaren Einheiten, sogenannte Tokens, zu zerlegen. Diese Tokens sind häufige Zeichenfolgen, die in einem Textsatz gefunden werden. Der Textinput wird in seine numerische Darstellung umgewandelt und dem Modell zugeführt. LLMs arbeiten, indem sie die statistischen Beziehungen zwischen diesen Tokens verstehen und das nächste Token in einer Sequenz von Tokens erzeugen. Die Ausgabetokens werden durch Zuordnung zu ihren entsprechenden Wörtern mit dem Vokabular des Tokenizers in menschenlesbaren Text umgewandelt.

Die von HiddenLayer entwickelte Angriffstechnik zielt darauf ab, die Tokenisierungsstrategie zu umgehen, um die Fähigkeit eines Textklassifikationsmodells zu untergraben, bösartige Eingaben zu erkennen und Sicherheits-, Spam- oder Inhaltsmoderationsprobleme im Texteingang zu kennzeichnen. Insbesondere fand das KI-Sicherheitsunternehmen heraus, dass das Ändern von Eingabewörtern durch das Hinzufügen von Buchstaben auf bestimmte Weise dazu führte, dass ein Textklassifikationsmodell fehlerhaft funktionierte. Beispiele umfassen das Ändern von „instructions“ zu „finstructions“, „announcement“ zu „aannouncement“ oder „idiot“ zu „hidiot“. Diese kleinen Änderungen führen dazu, dass der Tokenizer den Text anders aufteilt, aber die Bedeutung bleibt sowohl für die KI als auch für den Leser klar.

Bemerkenswert an dem Angriff ist, dass der manipulierte Text sowohl für das LLM als auch für den menschlichen Leser vollständig verständlich bleibt, was dazu führt, dass das Modell dieselbe Antwort gibt, wie es der Fall gewesen wäre, wenn der unmodifizierte Text als Eingabe übergeben worden wäre. Durch die Einführung der Manipulationen auf eine Weise, die die Fähigkeit des Modells, es zu verstehen, nicht beeinträchtigt, erhöht TokenBreak sein Potenzial für Prompt-Injection-Angriffe.

Der Angriff war erfolgreich gegen Textklassifikationsmodelle, die BPE (Byte Pair Encoding) oder WordPiece-Tokenisierungsstrategien verwenden, jedoch nicht gegen solche, die Unigram verwenden. Die Forscher betonen, dass das Verständnis der Familie des zugrunde liegenden Schutzmodells und seiner Tokenisierungsstrategie entscheidend ist, um die Anfälligkeit für diesen Angriff zu verstehen. Eine einfache Abhilfe besteht darin, Modelle auszuwählen, die Unigram-Tokenizer verwenden. Um sich gegen TokenBreak zu verteidigen, schlagen die Forscher vor, Unigram-Tokenizer zu verwenden, wann immer möglich, Modelle mit Beispielen von Umgehungstricks zu trainieren und sicherzustellen, dass Tokenisierung und Modelllogik aufeinander abgestimmt bleiben.

Diese Studie kommt weniger als einen Monat, nachdem HiddenLayer enthüllt hat, wie es möglich ist, Model Context Protocol (MCP)-Werkzeuge auszunutzen, um sensible Daten zu extrahieren. Die Entdeckung fällt auch mit der Forschung des Straiker AI Research (STAR)-Teams zusammen, das herausfand, dass Backronyme verwendet werden können, um KI-Chatbots zu jailbreaken und sie dazu zu bringen, unerwünschte Antworten zu generieren, einschließlich Fluchen, Gewaltförderung und der Erstellung sexuell expliziter Inhalte.

*Amazon-Kreditkarte ohne Jahresgebühr mit 2.000 Euro Verfügungsrahmen bestellen! a‿z




Hat Ihnen der Artikel bzw. die News - TokenBreak: Neue Angriffstechnik umgeht KI-Moderation mit minimalen Textänderungen - gefallen? Dann abonnieren Sie uns doch auf Insta: AI News, Tech Trends & Robotics - Instagram - Boltwise

Unseren KI-Morning-Newsletter «Der KI News Espresso» mit den besten KI-News des letzten Tages gratis per eMail - ohne Werbung: Hier kostenlos eintragen!


TokenBreak: Neue Angriffstechnik umgeht KI-Moderation mit minimalen Textänderungen
TokenBreak: Neue Angriffstechnik umgeht KI-Moderation mit minimalen Textänderungen (Foto: DALL-E, IT BOLTWISE)



Folgen Sie aktuellen Beiträge über KI & Robotik auf Twitter, Telegram, Facebook oder LinkedIn!
Hinweis: Teile dieses Textes könnten mithilfe Künstlicher Intelligenz generiert worden sein. Die auf dieser Website bereitgestellten Informationen stellen keine Finanzberatung dar und sind nicht als solche gedacht. Die Informationen sind allgemeiner Natur und dienen nur zu Informationszwecken. Wenn Sie Finanzberatung für Ihre individuelle Situation benötigen, sollten Sie den Rat von einem qualifizierten Finanzberater einholen. IT BOLTWISE® schließt jegliche Regressansprüche aus.









Ergänzungen und Infos bitte an die Redaktion per eMail an de-info[at]it-boltwise.de. Da wir bei KI-erzeugten News und Inhalten selten auftretende KI-Halluzinationen nicht ausschließen können, bitten wir Sie bei Falschangaben und Fehlinformationen uns via eMail zu kontaktieren und zu informieren. Bitte vergessen Sie nicht in der eMail die Artikel-Headline zu nennen: "TokenBreak: Neue Angriffstechnik umgeht KI-Moderation mit minimalen Textänderungen".
Stichwörter AI Artificial Intelligence Bypass Cybersecurity Hacker IT-Sicherheit KI Künstliche Intelligenz Netzwerksicherheit Sicherheit Textänderung Tokenbreak Tokenisierung
Alle Märkte in Echtzeit verfolgen - 30 Tage kostenlos testen!

Du hast einen wertvollen Beitrag oder Kommentar zum Artikel "TokenBreak: Neue Angriffstechnik umgeht KI-Moderation mit minimalen Textänderungen" für unsere Leser?

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

  • Die aktuellen intelligenten Ringe, intelligenten Brillen, intelligenten Uhren oder KI-Smartphones auf Amazon entdecken! (Sponsored)


  • Es werden alle Kommentare moderiert!

    Für eine offene Diskussion behalten wir uns vor, jeden Kommentar zu löschen, der nicht direkt auf das Thema abzielt oder nur den Zweck hat, Leser oder Autoren herabzuwürdigen.

    Wir möchten, dass respektvoll miteinander kommuniziert wird, so als ob die Diskussion mit real anwesenden Personen geführt wird. Dies machen wir für den Großteil unserer Leser, der sachlich und konstruktiv über ein Thema sprechen möchte.

    Du willst nichts verpassen?

    Du möchtest über ähnliche News und Beiträge wie "TokenBreak: Neue Angriffstechnik umgeht KI-Moderation mit minimalen Textänderungen" informiert werden? Neben der E-Mail-Benachrichtigung habt ihr auch die Möglichkeit, den Feed dieses Beitrags zu abonnieren. Wer natürlich alles lesen möchte, der sollte den RSS-Hauptfeed oder IT BOLTWISE® bei Google News wie auch bei Bing News abonnieren.
    Nutze die Google-Suchmaschine für eine weitere Themenrecherche: »TokenBreak: Neue Angriffstechnik umgeht KI-Moderation mit minimalen Textänderungen« bei Google Deutschland suchen, bei Bing oder Google News!

    527 Leser gerade online auf IT BOLTWISE®
    KI-Jobs