BERLIN / LONDON (IT BOLTWISE) – Der Einsatz von Künstlicher Intelligenz in der Verteidigungstechnologie ist nicht mehr wegzudenken. Automatisierte Systeme verändern die Kriegsführung grundlegend, indem sie die Luftabwehr und Drohneneinsätze effizienter gestalten. Doch die ethische Verantwortbarkeit dieser Technologien bleibt ein zentrales Thema.

Der Einsatz von Künstlicher Intelligenz (KI) in der Verteidigungstechnologie hat in den letzten Jahren erheblich an Bedeutung gewonnen. Insbesondere im Kontext des Ukrainekriegs zeigt sich, dass automatisierte Systeme die Kriegsführung grundlegend verändern. Moderne Luftabwehrsysteme nutzen KI, um angreifende Wirkmittel vollautomatisch zu erkennen, zu kategorisieren und zu bekämpfen. Auch Drohnen, die den Gegner aufspüren und attackieren, sind ohne KI kaum noch vorstellbar.
Ein herausragendes Beispiel für den Einsatz von KI in der Verteidigung ist die sogenannte Loitering Ammunition. Diese fliegende Munition sucht ein vorgegebenes Gebiet nach geeigneten Zielen ab, identifiziert diese und greift sie an. Die dabei entstehende Kill-Chain wird durch eine KI-gestützte Lagebild-Erstellung ermöglicht, die eine hohe Treffgenauigkeit sicherstellt. Ohne diese Technologien wäre ein modernes Kriegsgeschehen kaum noch denkbar.
In Deutschland wird der Einsatz von KI in der Verteidigung sowohl von der Industrie als auch von Universitäten und Forschungsinstituten intensiv diskutiert. Allerdings gibt es politische Hürden, die eine umfassende Auseinandersetzung mit den ethischen Fragen des KI-Einsatzes bei Waffen erschweren. Während andere NATO-Länder, allen voran die USA, bereits explizite Strategien entwickelt haben, ist die deutsche Politik in dieser Debatte oft zurückhaltend.
Um die Diskussion voranzutreiben, haben Airbus Defence & Space und das Fraunhofer-Institut FKIE eine Arbeitsgruppe gegründet, die sich mit der Technikverantwortung im Future Combat Air System (FCAS) beschäftigt. Ziel ist es, einen offenen gesellschaftspolitischen Diskurs über die verantwortbare Nutzung digitaler Waffentechnologien zu fördern. Dabei sollen gesetzliche Rahmenbedingungen, militärische Notwendigkeiten und ethische Standards berücksichtigt werden.
Der Bundesverband der Deutschen Sicherheits- und Verteidigungsindustrie (BDSV) hat diese Initiative aufgegriffen und einen Arbeitskreis KI & Verteidigung ins Leben gerufen. Dieser Arbeitskreis zielt darauf ab, die Grundlagen und Grenzen des KI-Einsatzes bei Waffen zu diskutieren und einen Beitrag zur öffentlichen Debatte zu leisten. Ein erster Erfolg dieser Bemühungen ist die Veröffentlichung eines Impulspapiers, das sich mit der ethischen Verantwortbarkeit von KI in der Selbstverteidigung beschäftigt.
Die Diskussion um die ethische Verantwortbarkeit von KI in der Verteidigung ist komplex und vielschichtig. Während der Selbstschutz von Kombattanten relativ leicht zu rechtfertigen ist, stellt sich die Frage der Verantwortbarkeit bei Gegenangriffen auf angreifende Aggressoren anders dar. Hier muss klar zwischen legitimen Verteidigungsmaßnahmen und offensiven Angriffen unterschieden werden, um die Einhaltung des humanitären Völkerrechts zu gewährleisten.
Ein zweites Impulspapier, das sich mit diesen Fragen auseinandersetzt, wurde kürzlich veröffentlicht. Es betont, dass die letztendliche Verantwortung für den Einsatz von Maschinen immer beim Menschen liegt. Dieser muss sicherstellen, dass die Maschinen innerhalb eines verantwortbaren Rahmens eingesetzt werden und die Kategorien des humanitären Völkerrechts einhalten.
Die Diskussion um den Einsatz von KI in der Verteidigung ist ein wichtiger Schritt auf dem Weg zu einer verantwortungsvollen Nutzung dieser Technologien. Deutschland hat die Chance, eine führende Rolle in der Entwicklung einer ethisch fundierten KI-Strategie einzunehmen. Dazu bedarf es jedoch eines entschlossenen politischen Diskurses und der Bereitschaft, technologische Souveränität zu erreichen.

- Die besten Bücher rund um KI & Robotik!
- Die besten KI-News kostenlos per eMail erhalten!
- Zur Startseite von IT BOLTWISE® für aktuelle KI-News!
- IT BOLTWISE® kostenlos auf Patreon unterstützen!
- Aktuelle KI-Jobs auf StepStone finden und bewerben!
Stellenangebote

Projektmanagement (m/w/d) (generative) künstliche Intelligenz

Doktorand:in – KI-gestützte Integration heterogener Forschungsdaten in Energiesystemmodelle (w/m/d)

KI-Experte* Schwerpunkt Interner Chatbot und Business Enablement

Werkstudent (m/w/d) Digitalisierung & KI im Ingenieurwesen

- Künstliche Intelligenz: Dem Menschen überlegen – wie KI uns rettet und bedroht | Der Neurowissenschaftler, Psychiater und SPIEGEL-Bestsellerautor von »Digitale Demenz«
Du hast einen wertvollen Beitrag oder Kommentar zum Artikel "Künstliche Intelligenz in der Verteidigung: Chancen und Herausforderungen" für unsere Leser?
Es werden alle Kommentare moderiert!
Für eine offene Diskussion behalten wir uns vor, jeden Kommentar zu löschen, der nicht direkt auf das Thema abzielt oder nur den Zweck hat, Leser oder Autoren herabzuwürdigen.
Wir möchten, dass respektvoll miteinander kommuniziert wird, so als ob die Diskussion mit real anwesenden Personen geführt wird. Dies machen wir für den Großteil unserer Leser, der sachlich und konstruktiv über ein Thema sprechen möchte.
Du willst nichts verpassen?
Du möchtest über ähnliche News und Beiträge wie "Künstliche Intelligenz in der Verteidigung: Chancen und Herausforderungen" informiert werden? Neben der E-Mail-Benachrichtigung habt ihr auch die Möglichkeit, den Feed dieses Beitrags zu abonnieren. Wer natürlich alles lesen möchte, der sollte den RSS-Hauptfeed oder IT BOLTWISE® bei Google News wie auch bei Bing News abonnieren.
Nutze die Google-Suchmaschine für eine weitere Themenrecherche: »Künstliche Intelligenz in der Verteidigung: Chancen und Herausforderungen« bei Google Deutschland suchen, bei Bing oder Google News!