LONDON (IT BOLTWISE) – Die Entwicklung und Implementierung von Künstlicher Intelligenz (KI) steht vor der Herausforderung, verantwortungsvolle Governance-Praktiken zu etablieren. Microsoft hat Experten aus verschiedenen Bereichen, darunter Genom-Editierung und Cybersicherheit, zusammengebracht, um die Rolle von Tests und Bewertungen als Governance-Instrument zu untersuchen.
Die rasante Entwicklung von generativer Künstlicher Intelligenz bietet sowohl Herausforderungen als auch Chancen, um Governance-Praktiken für die verantwortungsvolle Entwicklung, Implementierung und Nutzung von KI neu zu überdenken. Microsoft hat sich das Wissen von Experten aus verschiedenen Bereichen zunutze gemacht, um die Rolle von Tests und Bewertungen als Governance-Instrument zu untersuchen. In einem von Microsoft Research veranstalteten Gespräch mit Kathleen Sullivan wird erörtert, was die Technologiebranche und politische Entscheidungsträger von diesen Bereichen lernen können und wie dies die Zukunft der KI-Entwicklung beeinflussen könnte.
In einem Gespräch mit Professor Ciaran Martin von der Universität Oxford wird die Bedeutung differenzierter Standards für Organisationen unterschiedlicher Größe, die Rolle von öffentlich-privaten Partnerschaften und die Möglichkeit, Sicherheit von Anfang an in neue Technologien zu integrieren, erörtert. Martin betont, dass Risikobewertung und Tests in der Cybersicherheit zwei unterschiedliche, aber miteinander verbundene Aspekte sind. Während Risikobewertungen helfen, die wichtigsten Bedrohungen zu identifizieren, sind Tests entscheidend, um die Wirksamkeit von Sicherheitsmaßnahmen zu überprüfen.
Ein weiterer wichtiger Punkt ist die Notwendigkeit, Standards zu entwickeln, die sowohl für kleine Unternehmen als auch für Betreiber kritischer Infrastrukturen geeignet sind. Martin weist darauf hin, dass kleine Unternehmen nicht in der Lage sind, sich gegen gut ausgestattete staatliche Akteure zu verteidigen, und dass differenzierte Standards erforderlich sind, um sie nicht mit unüberwindbaren Anforderungen zu belasten.
Im weiteren Verlauf des Gesprächs wird Tori Westerhoff, Principal Director des Microsoft AI Red Teams, vorgestellt. Sie beschreibt die Sicherheitsüberprüfung von KI-Produkten als eine Art Mannschaftssport und hebt hervor, dass die Etablierung einer gemeinsamen Sprache und eines gemeinsamen Verständnisses von Risiken, wie es in der Cybersicherheit der Fall ist, auch für die KI-Sicherheit von Vorteil sein könnte.
Westerhoff betont, dass die Sicherheit von KI ein gemeinschaftliches Unterfangen ist, das die Zusammenarbeit zwischen verschiedenen Akteuren erfordert. Sie sieht die Rolle des Red Teams als Indikator, der eng mit der Produktentwicklung zusammenarbeitet, um Schwachstellen zu identifizieren, bevor Produkte auf den Markt kommen. Diese proaktive Herangehensweise soll sicherstellen, dass Sicherheitslücken geschlossen werden, bevor sie von böswilligen Akteuren ausgenutzt werden können.
Die Diskussion zeigt, dass die Prinzipien der Cybersicherheit, wie die Entwicklung von Standards und die Förderung von öffentlich-privaten Partnerschaften, auch auf die KI-Sicherheit angewendet werden können. Dies könnte dazu beitragen, die Sicherheit von KI-Systemen zu erhöhen und das Vertrauen der Öffentlichkeit in diese Technologien zu stärken.
- Die besten Bücher rund um KI & Robotik!
- Die besten KI-News kostenlos per eMail erhalten!
- Zur Startseite von IT BOLTWISE® für aktuelle KI-News!
- IT BOLTWISE® kostenlos auf Patreon unterstützen!
- Aktuelle KI-Jobs auf StepStone finden und bewerben!
Stellenangebote

Fachinformatiker (m/w/d) für KI Deployment und Anwendung

Duales Studium Data Science und Künstliche Intelligenz 2026 (m/w/d)

Dozent Tourismusmanagement Tech und KI (m/w/d)

(Voll-)Jurist Data, Privacy & Artificial Intelligence (m/w/d)

- Die Zukunft von Mensch und MaschineIm neuen Buch des renommierten Zukunftsforschers und Technologie-Visionärs Ray Kurzweil wird eine faszinierende Vision der kommenden Jahre und Jahrzehnte entworfen – eine Welt, die von KI durchdrungen sein wird
- Künstliche Intelligenz: Expertenwissen gegen Hysterie Der renommierte Gehirnforscher, Psychiater und Bestseller-Autor Manfred Spitzer ist ein ausgewiesener Experte für neuronale Netze, auf denen KI aufbaut
- Obwohl Künstliche Intelligenz (KI) derzeit in aller Munde ist, setzen bislang nur wenige Unternehmen die Technologie wirklich erfolgreich ein
- Wie funktioniert Künstliche Intelligenz (KI) und gibt es Parallelen zum menschlichen Gehirn? Was sind die Gemeinsamkeiten von natürlicher und künstlicher Intelligenz, und was die Unterschiede? Ist das Gehirn nichts anderes als ein biologischer Computer? Was sind Neuronale Netze und wie kann der Begriff Deep Learning einfach erklärt werden?Seit der kognitiven Revolution Mitte des letzten Jahrhunderts sind KI und Hirnforschung eng miteinander verflochten
Du hast einen wertvollen Beitrag oder Kommentar zum Artikel "KI-Sicherheit: Lehren aus der Cybersicherheit für die Zukunft" für unsere Leser?
Es werden alle Kommentare moderiert!
Für eine offene Diskussion behalten wir uns vor, jeden Kommentar zu löschen, der nicht direkt auf das Thema abzielt oder nur den Zweck hat, Leser oder Autoren herabzuwürdigen.
Wir möchten, dass respektvoll miteinander kommuniziert wird, so als ob die Diskussion mit real anwesenden Personen geführt wird. Dies machen wir für den Großteil unserer Leser, der sachlich und konstruktiv über ein Thema sprechen möchte.
Du willst nichts verpassen?
Du möchtest über ähnliche News und Beiträge wie "KI-Sicherheit: Lehren aus der Cybersicherheit für die Zukunft" informiert werden? Neben der E-Mail-Benachrichtigung habt ihr auch die Möglichkeit, den Feed dieses Beitrags zu abonnieren. Wer natürlich alles lesen möchte, der sollte den RSS-Hauptfeed oder IT BOLTWISE® bei Google News wie auch bei Bing News abonnieren.
Nutze die Google-Suchmaschine für eine weitere Themenrecherche: »KI-Sicherheit: Lehren aus der Cybersicherheit für die Zukunft« bei Google Deutschland suchen, bei Bing oder Google News!