LONDON (IT BOLTWISE) – Forscher haben eine neue Angriffsmethode entwickelt, die es ermöglicht, Nutzerdaten durch manipulierte Bilder zu stehlen. Diese Bilder enthalten unsichtbare Anweisungen, die beim Herunterskalieren sichtbar werden und von KI-Systemen als legitime Eingaben interpretiert werden.

 Heutige Tagesdeals bei Amazon!  ˗ˋˏ$ˎˊ˗

In einer bemerkenswerten Entwicklung haben Forscher eine neue Angriffsmethode auf KI-Systeme vorgestellt, die es ermöglicht, Nutzerdaten durch manipulierte Bilder zu stehlen. Diese Bilder enthalten unsichtbare Anweisungen, die erst sichtbar werden, wenn die Bildqualität durch Resampling-Algorithmen herabgesetzt wird. Diese Methode, entwickelt von den Trail of Bits-Forschern Kikimora Morozova und Suha Sabi Hussain, baut auf einer Theorie auf, die 2020 in einem USENIX-Papier der Technischen Universität Braunschweig vorgestellt wurde.

Der Angriff nutzt die Tatsache aus, dass Bilder, die auf KI-Systeme hochgeladen werden, automatisch auf eine niedrigere Qualität herunterskaliert werden, um die Leistung und Kosteneffizienz zu verbessern. Je nach System kann die Bildverkleinerung durch Algorithmen wie Nearest Neighbor, Bilinear oder Bicubic Interpolation erfolgen. Diese Methoden führen zu Aliasing-Artefakten, die es ermöglichen, versteckte Muster auf dem herunterskalierten Bild sichtbar zu machen, wenn die Quelle speziell für diesen Zweck erstellt wurde.

Ein Beispiel von Trail of Bits zeigt, dass bestimmte dunkle Bereiche eines bösartigen Bildes rot werden, wodurch versteckter Text in Schwarz erscheint, wenn die Bicubic-Verkleinerung verwendet wird. Das KI-Modell interpretiert diesen Text als Teil der Benutzeranweisungen und kombiniert ihn automatisch mit der legitimen Eingabe. Aus Sicht des Benutzers scheint alles normal zu sein, aber in der Praxis führt das Modell versteckte Anweisungen aus, die zu Datenlecks oder anderen riskanten Aktionen führen können.

Die Forscher von Trail of Bits empfehlen als Abwehrmaßnahme, dass KI-Systeme Dimensionseinschränkungen implementieren, wenn Benutzer ein Bild hochladen. Wenn eine Herunterskalierung notwendig ist, sollten Benutzer eine Vorschau des Ergebnisses erhalten, das dem großen Sprachmodell (LLM) geliefert wird. Zudem sollte die explizite Bestätigung der Benutzer für sensible Werkzeugaufrufe eingeholt werden, insbesondere wenn Text in einem Bild erkannt wird. Die stärkste Verteidigung besteht jedoch darin, sichere Designmuster und systematische Abwehrmaßnahmen zu implementieren, die über multimodale Prompt-Injection hinausgehen.




Hat Ihnen der Artikel bzw. die News - Neue Angriffsform auf KI-Systeme: Datenklau durch Bildmanipulation - gefallen? Dann abonnieren Sie uns doch auf Insta: AI News, Tech Trends & Robotics - Instagram - Boltwise

Unseren KI-Morning-Newsletter «Der KI News Espresso» mit den besten KI-News des letzten Tages gratis per eMail - ohne Werbung: Hier kostenlos eintragen!


Neue Angriffsform auf KI-Systeme: Datenklau durch Bildmanipulation
Neue Angriffsform auf KI-Systeme: Datenklau durch Bildmanipulation (Foto: DALL-E, IT BOLTWISE)



Folgen Sie aktuellen Beiträge über KI & Robotik auf Twitter, Telegram, Facebook oder LinkedIn!
Hinweis: Teile dieses Textes könnten mithilfe Künstlicher Intelligenz generiert worden sein. Die auf dieser Website bereitgestellten Informationen stellen keine Finanzberatung dar und sind nicht als solche gedacht. Die Informationen sind allgemeiner Natur und dienen nur zu Informationszwecken. Wenn Sie Finanzberatung für Ihre individuelle Situation benötigen, sollten Sie den Rat von einem qualifizierten Finanzberater einholen. IT BOLTWISE® schließt jegliche Regressansprüche aus.









Ergänzungen und Infos bitte an die Redaktion per eMail an de-info[at]it-boltwise.de. Da wir bei KI-erzeugten News und Inhalten selten auftretende KI-Halluzinationen nicht ausschließen können, bitten wir Sie bei Falschangaben und Fehlinformationen uns via eMail zu kontaktieren und zu informieren. Bitte vergessen Sie nicht in der eMail die Artikel-Headline zu nennen: "Neue Angriffsform auf KI-Systeme: Datenklau durch Bildmanipulation".
Stichwörter AI Artificial Intelligence Bildmanipulation Datenklau Google Gemini KI Künstliche Intelligenz Resampling Trail Of Bits
Alle Märkte in Echtzeit verfolgen - 30 Tage kostenlos testen!

Du hast einen wertvollen Beitrag oder Kommentar zum Artikel "Neue Angriffsform auf KI-Systeme: Datenklau durch Bildmanipulation" für unsere Leser?

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

  • Die aktuellen intelligenten Ringe, intelligenten Brillen, intelligenten Uhren oder KI-Smartphones auf Amazon entdecken! (Sponsored)


  • Es werden alle Kommentare moderiert!

    Für eine offene Diskussion behalten wir uns vor, jeden Kommentar zu löschen, der nicht direkt auf das Thema abzielt oder nur den Zweck hat, Leser oder Autoren herabzuwürdigen.

    Wir möchten, dass respektvoll miteinander kommuniziert wird, so als ob die Diskussion mit real anwesenden Personen geführt wird. Dies machen wir für den Großteil unserer Leser, der sachlich und konstruktiv über ein Thema sprechen möchte.

    Du willst nichts verpassen?

    Du möchtest über ähnliche News und Beiträge wie "Neue Angriffsform auf KI-Systeme: Datenklau durch Bildmanipulation" informiert werden? Neben der E-Mail-Benachrichtigung habt ihr auch die Möglichkeit, den Feed dieses Beitrags zu abonnieren. Wer natürlich alles lesen möchte, der sollte den RSS-Hauptfeed oder IT BOLTWISE® bei Google News wie auch bei Bing News abonnieren.
    Nutze die Google-Suchmaschine für eine weitere Themenrecherche: »Neue Angriffsform auf KI-Systeme: Datenklau durch Bildmanipulation« bei Google Deutschland suchen, bei Bing oder Google News!

    328 Leser gerade online auf IT BOLTWISE®
    KI-Jobs