WASHINGTON / LONDON (IT BOLTWISE) – Die Entwicklung der künstlichen Intelligenz schreitet rasant voran, doch die Sicherheitsmaßnahmen in den USA hinken hinterher. Während Washington seinen neuen “AI Action Plan” feiert, der auf eine lockere Regulierung setzt, um Innovationen zu fördern, zielen chinesische Geheimdienste wahrscheinlich mit ausgeklügelten Spionageoperationen auf amerikanische KI-Labore ab.

Die rasante Entwicklung der künstlichen Intelligenz (KI) stellt die USA vor große Herausforderungen in Bezug auf die Sicherheit. Während die Regierung einen neuen “AI Action Plan” vorstellt, der auf eine lockere Regulierung setzt, um Innovationen zu fördern, sind chinesische Geheimdienste vermutlich bereits dabei, amerikanische KI-Labore mit ausgeklügelten Spionageoperationen ins Visier zu nehmen. Diese offizielle Haltung der minimalen Aufsicht ignoriert die ernüchternde Realität: Die fortschrittlichste KI-Forschung des Landes bleibt anfällig für Diebstahl und Sabotage.
Der Aufbau sicherer Datenzentren, geschützter Lieferketten und militärischer Sicherheitsstandards dauert Jahre, während führende KI-Modelle in Monaten, nicht Jahren, menschliche Fähigkeiten erreichen. Jeder Tag, an dem ernsthafte Sicherheitsmaßnahmen verzögert werden, erhöht das Risiko, dass kritische KI-Forschung gestohlen oder sabotiert wird. Befürworter eines lockeren Ansatzes argumentieren, dass Unternehmen bereits starke Anreize haben, verantwortungsvoll zu handeln, um chinesische Dominanz und technische Katastrophen zu vermeiden.
Dario Amodei, CEO von Anthropic, schlägt einen Kompromiss vor: obligatorische Transparenzanforderungen, die Labore zwingen, Sicherheitsbewertungen und Minderungspläne offenzulegen, während sie ihre Freiheit zur Innovation bewahren. Ein solcher Bundesstandard könnte leicht umgesetzt werden, da er das codifizieren würde, was viele große Entwickler bereits tun. Doch Transparenz allein kann das grundlegende Problem nicht lösen, dass KI-Labore, die potenziell superintelligente Systeme entwickeln, wie kommerzielle Technologieunternehmen agieren, obwohl sie als strategische nationale Vermögenswerte behandelt werden sollten.
Die Bedrohung durch chinesische Industriespionage ist eine der größten Sorgen führender KI-Labore. Dies ist keine ferne Bedrohung, sondern eine aktive Belagerung. Die FBI warnt seit Jahren vor Chinas Diebstahlkampagne, die “dreister und schädlicher als je zuvor” ist. Während Bundesbehörden bemerkenswerte Erfolge erzielt haben, wie die Anklage eines chinesischen Staatsangehörigen wegen eines angeblichen Plans, proprietäre KI-Technologie von Google zu stehlen, sind diese Maßnahmen im Wesentlichen reaktiv.
Ein umfassender “Manhattan-Projekt-ähnlicher” Ansatz ist möglicherweise nicht notwendig, aber der aktuelle Ansatz ist unhaltbar. Was jetzt benötigt wird, ist ein abgestuftes Risikomanagement, das zwischen Gefahrenstufen unterscheidet und die regulatorischen Anforderungen entsprechend skaliert. Hochrisikomodelle würden eine militärische Governance erfordern, einschließlich technischer Schutzmaßnahmen wie sichere, staatlich geprüfte Datenzentren und ein neues Klassifizierungssystem, das Modelle und Methoden als Staatsgeheimnisse behandelt.
Die vorgeschlagene Advanced AI Security Readiness Act ist ein kritischer erster Schritt. Während der Gesetzentwurf das NSA AI Security Center mit der Erstellung eines “AI Security Playbook” beauftragt, wird sein Erfolg von der Zusammenarbeit mit der FBI-Abteilung für Spionageabwehr abhängen, die für die Bekämpfung von Spionen verantwortlich ist, die Labore auf US-Boden ins Visier nehmen. Die Verabschiedung dieses Gesetzes wäre eine wichtige Anzahlung auf den robusten Sicherheitsrahmen, den Amerika benötigt.

- Die besten Bücher rund um KI & Robotik!
- Die besten KI-News kostenlos per eMail erhalten!
- Zur Startseite von IT BOLTWISE® für aktuelle KI-News!
- IT BOLTWISE® kostenlos auf Patreon unterstützen!
- Aktuelle KI-Jobs auf StepStone finden und bewerben!
Stellenangebote

Junior Projektmanager Frontend & KI-Lösungen (m/w/d)

Duales Studium BWL - Spezialisierung Artificial Intelligence (B.A.) am Campus oder virtuell

KI-Expert:in (m/w/d)

Student*in für Masterarbeit Entwicklung von AI Tools für die Geometrie- und Verhaltenssimulation von Digital Twins im Automotive

- Künstliche Intelligenz: Dem Menschen überlegen – wie KI uns rettet und bedroht | Der Neurowissenschaftler, Psychiater und SPIEGEL-Bestsellerautor von »Digitale Demenz«
Du hast einen wertvollen Beitrag oder Kommentar zum Artikel "Hochrisiko-KI-Modelle erfordern militärische Sicherheitsstandards" für unsere Leser?
Es werden alle Kommentare moderiert!
Für eine offene Diskussion behalten wir uns vor, jeden Kommentar zu löschen, der nicht direkt auf das Thema abzielt oder nur den Zweck hat, Leser oder Autoren herabzuwürdigen.
Wir möchten, dass respektvoll miteinander kommuniziert wird, so als ob die Diskussion mit real anwesenden Personen geführt wird. Dies machen wir für den Großteil unserer Leser, der sachlich und konstruktiv über ein Thema sprechen möchte.
Du willst nichts verpassen?
Du möchtest über ähnliche News und Beiträge wie "Hochrisiko-KI-Modelle erfordern militärische Sicherheitsstandards" informiert werden? Neben der E-Mail-Benachrichtigung habt ihr auch die Möglichkeit, den Feed dieses Beitrags zu abonnieren. Wer natürlich alles lesen möchte, der sollte den RSS-Hauptfeed oder IT BOLTWISE® bei Google News wie auch bei Bing News abonnieren.
Nutze die Google-Suchmaschine für eine weitere Themenrecherche: »Hochrisiko-KI-Modelle erfordern militärische Sicherheitsstandards« bei Google Deutschland suchen, bei Bing oder Google News!