Künstliche Intelligenz im Krieg: Israel setzt KI im Kampf gegen Hamas ein - IT BOLTWISE® x Artificial Intelligence

MÜNCHEN (IT BOLTWISE) – Israel nutzt ein KI-System namens Lavender, um im Gazakrieg Palästinenser zu identifizieren, die Verbindungen zur Hamas haben. Dies wirft Fragen über die ethischen Grenzen des Einsatzes künstlicher Intelligenz im militärischen Kontext auf.



Laut Berichten verwendet das israelische Militär ein fortschrittliches KI-System mit dem Namen Lavender, um im Gazakrieg potenzielle Ziele zu identifizieren. Dieses System, das von Israels Elitehackern der Einheit 8200 entwickelt wurde, soll dabei helfen, große Datenmengen schnell zu analysieren und Verbindungen zu Hamas oder zum Palästinensischen Islamischen Dschihad (PIJ) aufzudecken. Lavender habe bereits 37.000 Personen als mögliche Ziele identifiziert, was zu einer schnelleren Auswahl von Angriffszielen führte und laut Aussagen israelischer Offiziere „viel Zeit gespart“ habe.

Die Verwendung von Lavender und einem ähnlichen System namens The Gospel, das Gebäude und andere Strukturen als Ziele vorschlägt, markiert einen signifikanten Schritt in der militärischen Strategie. Beide Systeme beschleunigen den Prozess der Zielidentifizierung erheblich. Allerdings wird kritisiert, dass mit der Automatisierung des Zielidentifizierungsprozesses durch KI auch die Akzeptanz von zivilen Opfern einhergeht. Berichten zufolge gab das Militär einen sogenannten Blankoscheck für bestimmte Anzahlen ziviler Opfer, die bei Angriffen in Kauf genommen werden dürfen.

Die israelische Armee widerspricht jedoch Teilen dieser Darstellungen. Während sie den Einsatz von Technologien zur Unterstützung im Identifizierungsprozess von Zielen bestätigt, streitet sie ab, dass KI-Systeme wie Lavender dazu verwendet werden, Terroristen direkt zu identifizieren oder Angriffe eigenständig zu initiieren. Stattdessen werden solche Systeme als Hilfsmittel für Analysten beschrieben. Weiterhin betont das Militär, dass der Einsatz sogenannter „dummer Bomben“ im Rahmen des internationalen Rechts erfolge und auf Präzision ausgelegt sei, um zivile Opfer nach Möglichkeit zu vermeiden.

Dieser Einsatz künstlicher Intelligenz wirft grundlegende Fragen über die ethischen Grenzen moderner Kriegsführung auf. Während Technologien wie Lavender das Potenzial haben, militärische Operationen effizienter zu gestalten, besteht die Gefahr, dass die Dehumanisierung des Krieges zu einer erhöhten Akzeptanz von Kollateralschäden führt. Die Diskussion um die Rolle künstlicher Intelligenz im Militär ist somit nicht nur eine technische, sondern auch eine zutiefst ethische Frage, die weitreichende Konsequenzen für die Zukunft bewaffneter Konflikte haben könnte.

Künstliche Intelligenz im Krieg: Israel setzt KI im Kampf gegen Hamas ein
Künstliche Intelligenz im Krieg: Israel setzt KI im Kampf gegen Hamas ein (Foto: DALL-E, IT BOLTWISE)
Hinweis: Teile dieses Textes könnten mithilfe Künstlicher Intelligenz generiert worden sein.



Ergänzungen und Infos bitte an die Redaktion per eMail an de-info[at]it-boltwise.de
Stichwörter
Alle Märkte in Echtzeit verfolgen - 30 Tage kostenlos testen!


#Abo
LinkedIn
Facebook
Twitter
#Podcast
YouTube
Spotify
Apple

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert



Es werden alle Kommentare moderiert!

Für eine offene Diskussion behalten wir uns vor, jeden Kommentar zu löschen, der nicht direkt auf das Thema abzielt oder nur den Zweck hat, Leser oder Autoren herabzuwürdigen.

Wir möchten, dass respektvoll miteinander kommuniziert wird, so als ob die Diskussion mit real anwesenden Personen geführt wird. Dies machen wir für den Großteil unserer Leser, der sachlich und konstruktiv über ein Thema sprechen möchte.

Du willst nichts verpassen?

Neben der E-Mail-Benachrichtigung habt ihr auch die Möglichkeit, den Feed dieses Beitrags zu abonnieren. Wer natürlich alles lesen möchte, der sollte den RSS-Hauptfeed oder IT BOLTWISE® bei Google News wie auch bei Bing News abonnieren.