Die zunehmende Digitalisierung und Automatisierung militärischer Fähigkeiten durch Künstliche Intelligenz (KI) wird die Art und Weise, wie Konflikte geführt werden, nachhaltig verändern. So nutzt das aktuell von den israelischen Verteidigungsstreitkräften eingesetzte Programm „Gospel“ maschinelles Lernen, um große Datenmengen zu durchsuchen und Ziele mit bisher unerreichter Geschwindigkeit zu identifizieren. Das ist eine Reaktion auf die Ereignisse des 7. Oktober, als Tausende von Terroristen unter Führung der Hamas in den Süden Israels eindrangen, fast 1.200 Zivilisten töteten und 253 Geiseln nahmen, von denen mehr als die Hälfte bis heute im Gazastreifen festgehalten wird. Israel versucht seitdem, die Bedrohung durch die Hamas zu beseitigen und die Geiseln zu retten, unter anderem durch den Einsatz von KI.

Diese technologischen Entwicklungen haben bereits jetzt die traditionelle Kriegsführung grundlegend verändert, wie auch das tragische Beispiel Ukraine zeigt. Im Falle des Gaza-Konfliktes hat KI die Fähigkeit des israelischen Militärs, potenzielle Ziele zu identifizieren, erheblich verbessert. Im Vergleich zu herkömmlichen Methoden, bei denen eine Gruppe von israelischen Analysten in einem Jahr etwa 50 bis 100 Ziele vorschlug, können KI-gesteuerte Systeme wie Gospel in wenigen Tagen Hunderte von Zielen identifizieren. Das ermöglicht eine reaktionsschnellere und dynamischere Kriegsführung, wirft aber auch Fragen hinsichtlich der Genauigkeit und Zuverlässigkeit der von KI generierten Vorhersagen auf. Weitere von Israel eingesetzte KI-Systeme, die häufig von Start-up-Unternehmen entwickelt werden, aggregieren und klassifizieren große Mengen nachrichtendienstlicher und anderer Daten und helfen beispielsweise bei der Zielanvisierung, der Entwicklung von Routen oder dem Schutz von Fahrzeugen. Schließlich nutzt das israelische Militär Gesichtserkennungsprogramme, um Verdächtige in Gaza zu identifizieren und festzunehmen.

Technologischer Fortschritt mit ethischen Bedenken

Trotz der Leistungsfähigkeit von KI-Systemen in kriegerischen Auseinandersetzungen ist ihre Fähigkeit, zwischen militärischen und zivilen Zielen zu unterscheiden, bis heute begrenzt. Die Herausforderung liegt in der Natur von KI-Algorithmen, die Entscheidungen auf der Grundlage von Korrelationen in historischen Trainingsdaten treffen, ohne die zugrunde liegenden kausalen Zusammenhänge wirklich zu verstehen. Dies kann in dynamischen Kriegsszenarien, in denen sich die Bedingungen rasch ändern, zu Fehlklassifizierungen und damit potenziell zu unrechtmäßigen Zielen führen. Es ist zwar nicht genau bekannt, welche Daten das Gospel-System und andere israelische KI-Dienste verwenden, aber sie stammen wahrscheinlich aus einer Vielzahl unterschiedlicher Quellen, wie etwa Mobilfunknachrichten, Satellitenbildern, Drohnenaufnahmen und sogar seismischen Sensoren. Während des aktuellen Krieges wurden Soldaten, die in den Gazastreifen eindrangen, auch mit Kameras ausgestattet, um die vorhandenen Datensätze zu ergänzen, so die New York Times.

Neben diesen technischen Einschränkungen werfen KI-gesteuerte Waffensysteme auch tiefgreifende ethische Fragen auf. Die Unterscheidung zwischen Kombattanten und Zivilisten ist ein Grundprinzip des Kriegsrechts, das durch die Unzulänglichkeiten von KI-Systemen bei der präzisen Zielidentifizierung in Frage gestellt wird. Die Risiken einer fehlerhaften Zielbestimmung durch KI und die möglichen Folgen für Unschuldige unterstreichen, dass stets zwischen technologischen Möglichkeiten und ethischen Verpflichtungen abgewogen werden sollte. Zudem erschwert die Hamas die Funktionsfähigkeit von israelischen KI-Systemen, indem sie Zivilisten als menschliche Schutzschilde missbraucht und in Tunneln unter zivilen Gebieten operiert.

Eine problematische Allianz von Mensch und Maschine

Aufgrund der intrinsischen Fehleranfälligkeit von moderner KI ist zu betonen, dass das israelische Gospel-System kein vollautomatisches System ist. Ein Sprecher des israelischen Militärs sagte in einer öffentlichen Erklärung im Februar, dass Gospel zwar zur Identifizierung potenzieller Ziele eingesetzt werde, die endgültige Entscheidung über einen Angriff aber immer ein Mensch treffe. In der Praxis sieht das wohl so aus: Nach Angaben des israelischen Militärs ist die Zielabteilung in der Lage, die von der KI identifizierten Ziele über eine App namens „Pillar of Fire“, die die Kommandeure auf ihren Smartphones und anderen vom Militär ausgegebenen Geräten mit sich führen, an die Luftwaffe, die Marine und die Bodentruppen direkt zu übermitteln.

Diese Mensch-Maschine-Interaktion in der modernen Kriegsführung ist problematisch, da sie zu einer sogenannten KI-Overreliance, also einem blinden Vertrauen in die Entscheidungen von KI-Systemen, führen kann. Es besteht die Gefahr, dass von KI-Systemen vorgeschlagene Entscheidungen ohne ausreichende kritische Prüfung und unter hohem Zeitdruck akzeptiert werden, was die Qualität der militärischen Entscheidungsfindung untergräbt. Angesichts der Tatsache, dass KI-Systeme nicht autonom sind und menschliche Entscheidungsträger letztlich die Verantwortung tragen, ist eine kritischere Auseinandersetzung mit der Zuverlässigkeit und den Empfehlungen dieser Systeme unerlässlich.

Die Frage nach internationaler Regulierung

Die europäische Politik, die zunehmend um eine gemeinsame Haltung in Sicherheits- und Verteidigungsfragen ringt, steht damit vor einer neuen Phase des Einsatzes von KI in der Kriegsführung. Der Gaza-Konflikt dient als tragisches Beispiel für die Notwendigkeit einer globalen KI-Politik und ethischer Überlegungen. Zukünftige Roboter und Drohnen könnten in der Lage sein, Ziele ohne menschliches Zutun zu identifizieren und anzugreifen, was die Kriegsführung noch stärker verändern würde. Es ist daher von entscheidender Bedeutung, dass die internationale Gemeinschaft Maßnahmen ergreift, um einen verantwortungsvollen Umgang mit KI-Waffensystemen sicherzustellen. Die geopolitische Realität macht es jedoch unwahrscheinlich, dass in naher Zukunft umfassende Sicherheitsbarrieren errichtet werden. Führende Militärmächte, darunter die USA, China und Russland, experimentieren aktiv mit autonomen Systemen, und selbst die EU hat den militärischen Einsatz von KI aus ihren neuen KI-Regelungen ausgeklammert. Es braucht eine tatsächlich globale Debatte sowie, angeführt von der UN, Richtlinien, die die Risiken von KI in der Kriegsführung berücksichtigen.

Die Debatte um den Einsatz von KI in der Kriegsführung ist weit mehr als eine technische Diskussion; sie berührt grundlegende Fragen der Ethik, der Verantwortung und der menschlichen Kontrolle in Konfliktsituationen. Während der technologische Fortschritt in der KI-gestützten Kriegsführung bestimmte Vorteile, wie einen größeren Schutz von unbeteiligten Zivilisten, mit sich bringen könnte, müssen die damit verbundenen Risiken sorgfältig abgewogen und durch internationale Normen und Richtlinien eingedämmt werden. Die schon heute stattfindende Anwendung von KI in der Kriegsführung erfordert daher nicht nur technisches Know-how für militärische Strategen, sondern auch eine gründliche ethische Reflexion und verstärkte internationale Zusammenarbeit.

Dieser Artikel basiert auf einem Interview mit dem Schweizer Radio SRF vom 5.4.2024, in dem Anselm Küsters mit Marc Allemann über den Einsatz verschiedener KI-Systeme, darunter das Gospel-System der israelischen Militärstreitkräfte, sprach. Über das Interview wurde zudem in einem Onlinebeitrag berichtet.


Anselm Küsters is Head of Digitalisation/New Technologies at the Centrum für Europäische Politik (cep), Berlin.

As a post-doctoral researcher at the Humboldt University in Berlin and as an associate researcher at the Max Planck Institute for Legal History and Theory in Frankfurt am Main, he conducts research in the field of Digital Humanities.

Küsters gained his Master's degree in Economic History at the University of Oxford (M. Phil) and his PhD at the Johann Wolfgang Goethe University in Frankfurt am Main.


Copyright Header Picture: Anas-Mohammed