MÜNCHEN (IT BOLTWISE) – In der Welt der Künstlichen Intelligenz sind Sicherheitslücken ein wachsendes Problem. Jüngste Entdeckungen von Sicherheitsforschern haben gezeigt, dass bösartige KI-Modelle auf Plattformen wie Hugging Face durch das Ausnutzen des Pickle-Formats Sicherheitsmechanismen umgehen können.

Die Entdeckung von bösartigen KI-Modellen auf der Plattform Hugging Face hat die Sicherheitsgemeinschaft alarmiert. Diese Modelle nutzen ein ungewöhnliches Verfahren, um bestehende Erkennungssysteme zu umgehen: das sogenannte ‘gebrochene’ Pickle-Format. Laut Berichten von Sicherheitsexperten bei ReversingLabs wurde in den PyTorch-Archiven bösartiger Python-Code am Anfang der Pickle-Dateien gefunden.
Das Pickle-Format, das häufig zur Verteilung von KI-Modellen verwendet wird, birgt ein erhebliches Sicherheitsrisiko, da es die Ausführung beliebigen Codes ermöglicht, sobald die Dateien geladen und deserialisiert werden. Die entdeckten Modelle, die im PyTorch-Format gespeichert sind, nutzen das 7z-Kompressionsformat, was es ihnen ermöglicht, unbemerkt zu bleiben und nicht als bösartig markiert zu werden.
Die Methode, die als nullifAI bezeichnet wird, zeigt klare Versuche, bestehende Sicherheitsvorkehrungen zu umgehen. Die betroffenen Modelle sind eher als Proof-of-Concept zu verstehen denn als aktive Bedrohung für die Lieferkette. Dennoch unterstreicht diese Entdeckung die Notwendigkeit, die Sicherheitsmaßnahmen für KI-Modelle zu verstärken.
Interessanterweise bricht die Objektserialisierung der Pickle-Dateien kurz nach der Ausführung der bösartigen Nutzlast ab, was zur Folge hat, dass die Deserialisierung des Objekts fehlschlägt. Trotz dieser Fehlernachricht wird der bösartige Code dennoch ausgeführt, da die Deserialisierung von Pickle-Dateien sequentiell erfolgt und die Ausführung der Opcodes nicht gestoppt wird, bis ein Fehler auftritt.
Die Open-Source-Utility Picklescan, die von Hugging Face zur Erkennung verdächtiger Pickle-Dateien eingesetzt wird, wurde inzwischen aktualisiert, um diesen Fehler zu beheben. Diese Anpassung zeigt, wie wichtig es ist, Sicherheitswerkzeuge kontinuierlich zu verbessern, um mit den sich ständig weiterentwickelnden Bedrohungen Schritt zu halten.
Die Entdeckung dieser Sicherheitslücke wirft auch Fragen zur zukünftigen Entwicklung von Sicherheitsmaßnahmen in der KI-Entwicklung auf. Da KI-Modelle zunehmend in kritischen Anwendungen eingesetzt werden, ist es unerlässlich, dass Entwickler und Plattformen wie Hugging Face proaktive Maßnahmen ergreifen, um die Integrität und Sicherheit ihrer Systeme zu gewährleisten.

- Die besten Bücher rund um KI & Robotik!
- Die besten KI-News kostenlos per eMail erhalten!
- Zur Startseite von IT BOLTWISE® für aktuelle KI-News!
- IT BOLTWISE® kostenlos auf Patreon unterstützen!
- Aktuelle KI-Jobs auf StepStone finden und bewerben!
Stellenangebote

Werkstudent*in Datenanwendungen & KI

IT Application Specialist (m/w/d) – ERP & KI-gestützte Prozessintegration

Professur für Künstliche Intelligenz in industriellen Systemen

Student*in Masterarbeit AI-assisted Software Coordination Drive Systems

- Künstliche Intelligenz: Dem Menschen überlegen – wie KI uns rettet und bedroht | Der Neurowissenschaftler, Psychiater und SPIEGEL-Bestsellerautor von »Digitale Demenz«
Du hast einen wertvollen Beitrag oder Kommentar zum Artikel "Sicherheitslücke bei KI-Modellen: Pickle-Format ermöglicht Umgehung von Erkennungssystemen" für unsere Leser?
Es werden alle Kommentare moderiert!
Für eine offene Diskussion behalten wir uns vor, jeden Kommentar zu löschen, der nicht direkt auf das Thema abzielt oder nur den Zweck hat, Leser oder Autoren herabzuwürdigen.
Wir möchten, dass respektvoll miteinander kommuniziert wird, so als ob die Diskussion mit real anwesenden Personen geführt wird. Dies machen wir für den Großteil unserer Leser, der sachlich und konstruktiv über ein Thema sprechen möchte.
Du willst nichts verpassen?
Du möchtest über ähnliche News und Beiträge wie "Sicherheitslücke bei KI-Modellen: Pickle-Format ermöglicht Umgehung von Erkennungssystemen" informiert werden? Neben der E-Mail-Benachrichtigung habt ihr auch die Möglichkeit, den Feed dieses Beitrags zu abonnieren. Wer natürlich alles lesen möchte, der sollte den RSS-Hauptfeed oder IT BOLTWISE® bei Google News wie auch bei Bing News abonnieren.
Nutze die Google-Suchmaschine für eine weitere Themenrecherche: »Sicherheitslücke bei KI-Modellen: Pickle-Format ermöglicht Umgehung von Erkennungssystemen« bei Google Deutschland suchen, bei Bing oder Google News!