Kriege, ausgelöst von Algorithmen?
Noch vor einigen Jahren gab es ethische Debatten über den Einsatz bewaffneter Drohnen und autonomer Waffensysteme. Die Debatte ist verstummt, dafür sind diese Systeme heute allgegenwärtig. Ethik scheint dabei keine Rolle mehr zu spielen.
Stuttgart/Frankfurt a.M. (epd). Seit Beginn des russischen Angriffskriegs in der Ukraine sind die sozialen Medien voll von kurzen Videoschnipseln, die Drohneneinschläge aufgezeichnet haben. Sie zeigen, wie die bewaffneten Flugobjekte Panzer oder Soldatengruppen treffen und explodieren. Wer sich diese Videos anschaut, braucht manchmal starke Nerven.
Manche der in der Ukraine eingesetzten bewaffneten Drohnentypen suchen ihre Ziele ohne menschliches Zutun. Um bewaffnete Drohnen und Autonomie in Waffensystemen gab es vor einigen Jahren eine intensive ethische Debatte. Sie ist, bis auf einzelne Stimmen, längst verstummt. Im Oktober 2020 hatte die Wiesbadener Martin-Niemöller-Stiftung noch erklärt, bewaffnete Kampfdrohnen seien „nicht verantwortungsfähig“. Zuletzt hatte Papst Franziskus beim G7-Gipfel in Apulien Mitte Juni gesagt: „Keine Maschine darf jemals die Wahl treffen können, einem Menschen das Leben zu nehmen.“
Die Realität ist darüber hinaus. Schon 2020 waren Drohnen - auch autonome - ein wesentlicher Faktor für den Sieg Aserbaidschans über Bergkarabach. Im Ukraine- und im Gaza-Krieg analysiert Künstliche Intelligenz (KI), beispielsweise das israelische Habsora-System, gesammelte Daten und destilliert aus ihnen mögliche Angriffsziele.
Laut Marius Pletsch von der in Stuttgart ansässigen Deutschen Friedensgesellschaft hat sich in jüngster Zeit viel verändert. „Die Systeme hatten früher begrenzte Einsatzzwecke und Einsatzradien“, erklärt er, beispielsweise zur Flugabwehr. Nun aber gebe es durch den KI-Boom neue Einsatzmöglichkeiten, etwa bei der Erkennung von Objekten oder Individuen, und die Systeme würden mobiler.
Das allerdings führt zu neuen Risiken, wie der Politologe Frank Sauer erklärt, Forschungsleiter des Metis Instituts für Strategie und Vorausschau der Münchener Bundeswehr-Universität. Es mehrten sich Sorgen vor sogenannten flash wars, sagt er: Kriege, die aus dem Nichts heraus entstehen, von Maschinen ausgelöst.
Ein Szenario könnte so gehen, schildert Sauer: Eine US-Flugzeugträgergruppe im Südchinesischen Meer wird von einem Schwarm aus autonomen Systemen geschützt. Aufgrund eines Sensorfehlers melden diese einen chinesischen Angriff und beginnen zu feuern. Die Chinesen beziehungsweise deren autonome Systeme schössen dann zurück. „Dann hätten wir einen heißen Krieg, den kein Mensch wollte, blitzschnell ausgelöst von Algorithmen“, erklärt Sauer. „Und es kann sein, dass richtig viel Schaden angerichtet ist, bevor es den Menschen gelingt, den Stecker zu ziehen.“
Eine umfassende Regulierung autonomer Waffensysteme ist auf internationaler Ebene bislang gescheitert. Friedensaktivist Pletsch hält diesen Weg aber noch nicht für zu Ende gegangen. Anstatt wie bislang in gesonderten Gesprächen im Rahmen der Konvention über konventionelle Waffen in Genf solle man es in der Generalversammlung der Vereinten Nationen versuchen, sagt er. Denn in Genf hätten militärisch starke Staaten gebremst, in der Generalversammlung könnten sich kleinere Staaten besser einbringen.
Und dort müsse auch Ethik eine Rolle spielen. „Um zum Kern des Problems vorzudringen, reicht eine rein völkerrechtliche Betrachtung nicht aus“, sagt Pletsch. „Wir müssen uns mit der Frage auseinandersetzen, ob wir wollen, dass Menschen zu Datenpunkten reduziert und mit einem Zielprofil abgeglichen werden, und dann eine Maschine über Leben und Tod entscheiden kann.“
Von ethischen Debatten erwartet der Politologe Sauer hingegen nicht viel: „Wir sehen ja, was Russland sich darum schert.“ Allerdings seien nicht nur Russland oder China unwillig, sich in die Entwicklung dieser Systeme hineinreden zu lassen. Auch bei manch westlichen Mächten treffe man auf Unverständnis, wenn man ethisch gegen ein System argumentiere, das militärisch effektiver sei als jeder Mensch. „Und schwarz-weiß ist die Diskussion eben auch nicht“, sagt Sauer. Denn militärische Effektivität könne auch bedeuten, dass Zivilisten weniger statt mehr zu Schaden kommen.
„Rüstungskontrolle mache ich nicht mit einem Freund, sondern mit meinem Feind“, sagt Sauer. „Damit wir beide überleben und uns nicht aus Versehen gegenseitig in die Luft sprengen.“ Anstatt Ethik sei daher die Sorge um die Sicherheit der Hebel, um autonome Waffen unter Kontrolle zu halten.
Hintergrund:
Schon seit 2014 gibt es Bestrebungen auf der Ebene der Vereinten Nationen, tödliche autonome Waffensysteme (lethal autonomous weapons systems, LAWS) zu regulieren. Im November 2019 einigten sich mehr als 120 Staaten in den Gesprächen zur Konvention über konventionelle Waffen (Convention on Certain Conventional Weapons, CCW) in Genf auf Leitprinzipien, die jedoch kein Verbot und auch nicht verbindlich sind. So soll für alle künftigen Waffensysteme das Völkerrecht gelten. Für deren Einsatz sollen jeweils Menschen verantwortlich bleiben. Für ein Verbot setzten sich rund 30 Länder ein, darunter Österreich und der Vatikan. Dagegen waren vor allem Russland und die USA.
Autonome Waffensysteme haben auch bereits Menschenleben auf dem nicht vorhandenen Gewissen. Als 1983 ein sowjetisches Jagdflugzeug einen Jumbo-Jet der Korean Air Lines über der Insel Sachalin abschoss und 269 Menschen dabei starben, behaupteten die Sowjets zeitweise, dass nicht der Jagdpilot, sondern dessen Flugzeug zwei Raketen auf den Jumbo gestartet habe. Während der Invasion im Irak 2003 schossen Patriot-Raketen der USA aus Versehen einen britischen und einen US-Kampfjet ab. Dabei starben zwei britische Flieger und ein amerikanischer Pilot. Die Bediener der Patriot hatten vergessen, den Automatikmodus auszuschalten. Möglicherweise geschah auch der Abschuss der Malaysia-Airlines-Boeing mit 298 Toten über der Ostukraine 2014 dadurch, dass ein russisches Buk-Flugabwehrsystem ohne menschliches Eingreifen eine Lenkrakete startete.
Autonome Waffen und Drohnen haben miteinander zu tun, sind aber nicht gleichbedeutend: Es gibt Drohnen, die von Menschen gesteuert sind, und es gibt autonome Waffensysteme, die keine Drohnen sind. Beide gibt es schon länger: Drohnen etwa seit dem Zweiten Weltkrieg. Seit den 1970er Jahren können die Radare von Jagdflugzeugen oder Flugabwehr-Raketensystemen Ziele eigenständig entdecken, identifizieren und ihren Besatzungen nach Gefährlichkeit geordnet anzeigen. Viele Lenkwaffen arbeiten heute nach dem Fire-and-forget-Prinzip, werden also von Menschen abgefeuert, verfolgen ihre Ziele aber komplett eigenständig.
Auch die letzten Schritte der sogenannten „kill chain“, also die Entscheidung zum Abdrücken und der Schuss, können schon lange von Maschinen ausgeführt werden. Bei manchen Abwehrsystemen ist das auch notwendig. So gibt es beispielsweise Systeme für Panzer oder Kampfschiffe, die anfliegende Granaten oder Raketen im letzten Moment vor dem Einschlag abschießen. Diesen Moment genau abzupassen, ist nur für Maschinen möglich.
Relativ neu sind autonome Funktionen in sogenannten Battle Management Systems. Diese Programme können beispielsweise Satelliten- oder Telekommunikationsdaten analysieren und daraus Ziele generieren. Technisch wäre es möglich, dass diese Programme die Bekämpfung der Ziele selbstständig einleiten, im Extremfall durch andere autonome Systeme. Wesentlicher militärischer Vorteil ist, dass Maschinen Entscheidungen um ein Vielfaches schneller treffen können als Soldaten.