LONDON (IT BOLTWISE) – Forscher haben eine neue Angriffsmethode entwickelt, die es ermöglicht, Nutzerdaten durch manipulierte Bilder zu stehlen. Diese Bilder enthalten unsichtbare Anweisungen, die beim Herunterskalieren sichtbar werden und von KI-Systemen als legitime Eingaben interpretiert werden.

In einer bemerkenswerten Entwicklung haben Forscher eine neue Angriffsmethode auf KI-Systeme vorgestellt, die es ermöglicht, Nutzerdaten durch manipulierte Bilder zu stehlen. Diese Bilder enthalten unsichtbare Anweisungen, die erst sichtbar werden, wenn die Bildqualität durch Resampling-Algorithmen herabgesetzt wird. Diese Methode, entwickelt von den Trail of Bits-Forschern Kikimora Morozova und Suha Sabi Hussain, baut auf einer Theorie auf, die 2020 in einem USENIX-Papier der Technischen Universität Braunschweig vorgestellt wurde.
Der Angriff nutzt die Tatsache aus, dass Bilder, die auf KI-Systeme hochgeladen werden, automatisch auf eine niedrigere Qualität herunterskaliert werden, um die Leistung und Kosteneffizienz zu verbessern. Je nach System kann die Bildverkleinerung durch Algorithmen wie Nearest Neighbor, Bilinear oder Bicubic Interpolation erfolgen. Diese Methoden führen zu Aliasing-Artefakten, die es ermöglichen, versteckte Muster auf dem herunterskalierten Bild sichtbar zu machen, wenn die Quelle speziell für diesen Zweck erstellt wurde.
Ein Beispiel von Trail of Bits zeigt, dass bestimmte dunkle Bereiche eines bösartigen Bildes rot werden, wodurch versteckter Text in Schwarz erscheint, wenn die Bicubic-Verkleinerung verwendet wird. Das KI-Modell interpretiert diesen Text als Teil der Benutzeranweisungen und kombiniert ihn automatisch mit der legitimen Eingabe. Aus Sicht des Benutzers scheint alles normal zu sein, aber in der Praxis führt das Modell versteckte Anweisungen aus, die zu Datenlecks oder anderen riskanten Aktionen führen können.
Die Forscher von Trail of Bits empfehlen als Abwehrmaßnahme, dass KI-Systeme Dimensionseinschränkungen implementieren, wenn Benutzer ein Bild hochladen. Wenn eine Herunterskalierung notwendig ist, sollten Benutzer eine Vorschau des Ergebnisses erhalten, das dem großen Sprachmodell (LLM) geliefert wird. Zudem sollte die explizite Bestätigung der Benutzer für sensible Werkzeugaufrufe eingeholt werden, insbesondere wenn Text in einem Bild erkannt wird. Die stärkste Verteidigung besteht jedoch darin, sichere Designmuster und systematische Abwehrmaßnahmen zu implementieren, die über multimodale Prompt-Injection hinausgehen.

- Die besten Bücher rund um KI & Robotik!
- Die besten KI-News kostenlos per eMail erhalten!
- Zur Startseite von IT BOLTWISE® für aktuelle KI-News!
- IT BOLTWISE® kostenlos auf Patreon unterstützen!
- Aktuelle KI-Jobs auf StepStone finden und bewerben!
Stellenangebote

Werkstudent Innovation durch KI im Rahmen von Projektmanagement (m/w/d)

Professur für Künstliche Intelligenz in industriellen Systemen

Werkstudent generative KI (m/w/d)

Praktikant*in Robotik und Künstliche Intelligenz (KI)

- Künstliche Intelligenz: Dem Menschen überlegen – wie KI uns rettet und bedroht | Der Neurowissenschaftler, Psychiater und SPIEGEL-Bestsellerautor von »Digitale Demenz«
Du hast einen wertvollen Beitrag oder Kommentar zum Artikel "Neue Angriffsform auf KI-Systeme: Datenklau durch Bildmanipulation" für unsere Leser?
Es werden alle Kommentare moderiert!
Für eine offene Diskussion behalten wir uns vor, jeden Kommentar zu löschen, der nicht direkt auf das Thema abzielt oder nur den Zweck hat, Leser oder Autoren herabzuwürdigen.
Wir möchten, dass respektvoll miteinander kommuniziert wird, so als ob die Diskussion mit real anwesenden Personen geführt wird. Dies machen wir für den Großteil unserer Leser, der sachlich und konstruktiv über ein Thema sprechen möchte.
Du willst nichts verpassen?
Du möchtest über ähnliche News und Beiträge wie "Neue Angriffsform auf KI-Systeme: Datenklau durch Bildmanipulation" informiert werden? Neben der E-Mail-Benachrichtigung habt ihr auch die Möglichkeit, den Feed dieses Beitrags zu abonnieren. Wer natürlich alles lesen möchte, der sollte den RSS-Hauptfeed oder IT BOLTWISE® bei Google News wie auch bei Bing News abonnieren.
Nutze die Google-Suchmaschine für eine weitere Themenrecherche: »Neue Angriffsform auf KI-Systeme: Datenklau durch Bildmanipulation« bei Google Deutschland suchen, bei Bing oder Google News!