LONDON (IT BOLTWISE) – Die zunehmende Nutzung generativer Künstlicher Intelligenz (KI) in der Softwareentwicklung birgt erhebliche Risiken für die Sicherheit von Software-Lieferketten. Während KI-Modelle wie große Sprachmodelle (LLMs) in der Lage sind, plausible Texte zu generieren, neigen sie auch zu sogenannten ‘Halluzinationen’, bei denen sie nicht existierende Softwarekomponenten vorschlagen. Diese Schwäche wird von böswilligen Akteuren ausgenutzt, um Malware zu verbreiten.
Generative Künstliche Intelligenz (KI) hat das Potenzial, die Effizienz in der Softwareentwicklung erheblich zu steigern. Doch diese Technologie birgt auch erhebliche Risiken, insbesondere für die Sicherheit von Software-Lieferketten. Ein zentrales Problem ist die Neigung von KI-Modellen, sogenannte ‘Halluzinationen’ zu erzeugen, bei denen sie nicht existierende Softwarekomponenten vorschlagen. Diese Schwäche wird von böswilligen Akteuren ausgenutzt, um Malware zu verbreiten.
Eine aktuelle Studie von Universitätsforschern hat gezeigt, dass 16 verschiedene große Sprachmodelle (LLMs) mit hoher Sicherheit Softwarekomponenten vorschlagen, die nicht existieren. Diese Halluzinationen bieten böswilligen Akteuren eine einfache Möglichkeit, Malware zu verbreiten. Sie registrieren Softwarepakete mit den von der KI vorgeschlagenen Namen in öffentlichen Repositories. Entwickler, die auf die KI-Vorschläge vertrauen, laden diese Pakete herunter, ohne deren Authentizität zu überprüfen, und setzen sich so der Gefahr von Malware aus.
Die Abhängigkeit von KI-gestützten Tools in der Softwareentwicklung nimmt zu. Entwickler verlassen sich zunehmend auf KI-Assistenten, um ihre Arbeitsabläufe zu optimieren. Doch oft wird die Überprüfung der von der KI vorgeschlagenen Tools gegen die offizielle Dokumentation der Open-Source-Tools vernachlässigt. Dies erhöht das Risiko, dass schädliche Software in die Entwicklungsumgebung gelangt.
Die Sicherheitsrisiken werden durch die mangelnde Transparenz in der Software-Lieferkette weiter verschärft. Nur 20% der Organisationen nutzen Software-Stücklisten (SBOMs), um die Komponenten ihrer Software aufzulisten. Ohne eine solche ‘Zutatenliste’ haben Organisationen nur begrenzte Einblicke in die Zusammensetzung und Sicherheit ihrer Software. Dies macht es böswilligen Akteuren leicht, Schwachstellen auszunutzen.
Um diese Risiken zu mindern, sind klare Anforderungen an die Transparenz von KI-Modellen erforderlich. Ein dediziertes Rahmenwerk zur Offenlegung von Risiken sollte entwickelt werden, das wichtige Attribute wie die Quellen der Trainingsdaten, Modellversionen, bekannte Einschränkungen und Sicherheitsmerkmale dokumentiert. Die bestehenden Richtlinien des National Institute of Standards and Technology (NIST) zur Risikomanagement in der Lieferkette und zur sicheren Softwareentwicklung bieten ein wertvolles Modell, das zur Schaffung neuer Standards für KI-Provenienz, Rückverfolgbarkeit und Manipulationssicherheit herangezogen werden kann.
Ein weiterer Ansatz zur Verbesserung der Sicherheit besteht darin, die Entwicklung selbstregulierender KI-Modelle zu fördern. Diese Modelle könnten in der Lage sein, ihre eigenen fehlerhaften Ausgaben zu identifizieren und herauszufiltern. In Kombination mit strengen Transparenzstandards könnte dies dazu beitragen, das Vertrauen in KI-Systeme wiederherzustellen und die Sicherheit von Software-Lieferketten zu gewährleisten.
- Die besten Bücher rund um KI & Robotik!
- Die besten KI-News kostenlos per eMail erhalten!
- Zur Startseite von IT BOLTWISE® für aktuelle KI-News!
- IT BOLTWISE® kostenlos auf Patreon unterstützen!
- Aktuelle KI-Jobs auf StepStone finden und bewerben!
Stellenangebote

Werkstudent (m/w/d) Künstliche Intelligenz

Trainee Künstliche Intelligenz (m/w/d) - befristet für 24 Monate

Dozent Tourismusmanagement Tech und KI (m/w/d)

Bauprojektleiter Technische Gebäudeausrüstung (TGA) für KI- Rechenzentrumprojekte (m/w/d); HN oder B

- Die Zukunft von Mensch und MaschineIm neuen Buch des renommierten Zukunftsforschers und Technologie-Visionärs Ray Kurzweil wird eine faszinierende Vision der kommenden Jahre und Jahrzehnte entworfen – eine Welt, die von KI durchdrungen sein wird
- Künstliche Intelligenz: Expertenwissen gegen Hysterie Der renommierte Gehirnforscher, Psychiater und Bestseller-Autor Manfred Spitzer ist ein ausgewiesener Experte für neuronale Netze, auf denen KI aufbaut
- Obwohl Künstliche Intelligenz (KI) derzeit in aller Munde ist, setzen bislang nur wenige Unternehmen die Technologie wirklich erfolgreich ein
- Wie funktioniert Künstliche Intelligenz (KI) und gibt es Parallelen zum menschlichen Gehirn? Was sind die Gemeinsamkeiten von natürlicher und künstlicher Intelligenz, und was die Unterschiede? Ist das Gehirn nichts anderes als ein biologischer Computer? Was sind Neuronale Netze und wie kann der Begriff Deep Learning einfach erklärt werden?Seit der kognitiven Revolution Mitte des letzten Jahrhunderts sind KI und Hirnforschung eng miteinander verflochten
Du hast einen wertvollen Beitrag oder Kommentar zum Artikel "Generative KI verschärft Risiken in der Software-Lieferkette" für unsere Leser?
Es werden alle Kommentare moderiert!
Für eine offene Diskussion behalten wir uns vor, jeden Kommentar zu löschen, der nicht direkt auf das Thema abzielt oder nur den Zweck hat, Leser oder Autoren herabzuwürdigen.
Wir möchten, dass respektvoll miteinander kommuniziert wird, so als ob die Diskussion mit real anwesenden Personen geführt wird. Dies machen wir für den Großteil unserer Leser, der sachlich und konstruktiv über ein Thema sprechen möchte.
Du willst nichts verpassen?
Du möchtest über ähnliche News und Beiträge wie "Generative KI verschärft Risiken in der Software-Lieferkette" informiert werden? Neben der E-Mail-Benachrichtigung habt ihr auch die Möglichkeit, den Feed dieses Beitrags zu abonnieren. Wer natürlich alles lesen möchte, der sollte den RSS-Hauptfeed oder IT BOLTWISE® bei Google News wie auch bei Bing News abonnieren.
Nutze die Google-Suchmaschine für eine weitere Themenrecherche: »Generative KI verschärft Risiken in der Software-Lieferkette« bei Google Deutschland suchen, bei Bing oder Google News!