Friedensaktivist: Foren zur Rüstungskontrolle stärken

Stuttgart/Frankfurt a.M. (epd). Autonome Waffensysteme sind nach den Worten des Friedensaktivisten Marius Pletsch von der Deutschen Friedensgesellschaft noch fehleranfällig. Sie können in näherer Zukunft nicht so weit verbessert werden, dass man sie guten Gewissens einsetzen könnte, sagte er dem Evangelischen Pressedienst (epd).

Pletsch wandte sich gegen die Argumentation, dass Künstliche Intelligenz (KI) auf dem Schlachtfeld unnötige Opfer sogar reduzieren könne, weil präzise Angriffe Flächenbombardements ersetzten. Autonome Systeme generierten oft eine solche Menge an Zielen, dass die genaue Prüfung dieser Ziele durch Menschen unmöglich sei. „Der Effekt am Boden ist dann ähnlich schlimm wie bei einem Flächenangriff“, sagte er.

Den Weg einer internationalen Regulierung autonomer Waffensysteme hält Pletsch für noch nicht zu Ende gegangen. Anstatt wie bislang in gesonderten Gesprächen im Rahmen der Konvention über konventionelle Waffen in Genf solle man es im Sicherheitsrat der Vereinten Nationen versuchen, sagte er. Denn in Genf hätten militärisch starke Staaten gebremst, und im Sicherheitsrat könnten sich kleinere Staaten besser einbringen. „Ich würde dafür werben, die Foren zu nutzen, die wir haben, um Rüstungskontrollinstrumente zu stärken“, sagte Pletsch. „Nicht nur wir sehen diese Systeme kritisch.“ Auch in China gebe es durchaus einen kritischen Blick darauf.

Pletsch bedauerte, dass Ethik in der Frage um den Einsatz von KI in Waffensystemen kaum noch eine Rolle spiele. „Man muss schon sehen, dass der russische Krieg gegen die Ukraine die Debatte unheimlich verändert hat“, sagte er. Dennoch müsse auch Ethik beim Versuch einer internationalen Einhegung eine Rolle spielen. „Um zum Kern des Problems vorzudringen, reicht eine rein völkerrechtliche Betrachtung nicht aus“, sagte er. „Wir müssen uns mit der Frage auseinandersetzen, ob wir wollen, dass Menschen zu Datenpunkten reduziert und mit einem Zielprofil abgeglichen werden und dann eine Maschine über Leben und Tod entscheiden kann.“

Das Interview im Wortlaut:

epd: Herr Pletsch, worin genau liegt das ethische Problem bei autonomen Waffensystemen?

Marius Pletsch: Wir sprechen hier von einer Entmenschlichung, von Menschen, die zu Datenpunkten reduziert werden. Wenn auf der Basis von Sensordaten lediglich maschinell abgeglichen wird, ob ein Ziel in ein Zielprofil passt, was dann über Leben und Tod entscheidet, haben wir es mit einer Verletzung der Menschenwürde zu tun.

epd: Nun gibt es das Argument, dass Künstliche Intelligenz (KI) auf dem Schlachtfeld unnötige Opfer sogar reduzieren könnte. Diesem Argument zufolge ersetzen präzise Angriffe Flächenbombardements. Wie ordnen Sie das ein?

Pletsch: KI-Systeme sind technisch noch sehr fehleranfällig. Es ist fraglich, ob sie überhaupt in näherer Zukunft so weit verbessert werden können, dass man sie ohne enorme humanitäre Folgen einsetzen kann. Und sie können in kurzer Zeit so viele Ziele generieren, dass kein Mensch mehr mitkommt. Der Effekt am Boden kann dann ähnlich schlimm wie bei einem Flächenangriff sein.

Ein Beispiel ist das israelische Lavender-System, das aus Kommunikationsdaten und Bewegungsmustern Ziele identifiziert. Israelische Soldaten sagten, sie hätten zu Beginn des Gaza-Kriegs nach dem 7. Oktober 2023 pro Ziel maximal zehn Sekunden mit der Prüfung verbracht. So kam es zu vielen zivilen Opfern. Inzwischen wird weniger stark bombardiert und anscheinend genauer prüft, sodass die Opferzahlen weniger stark steigen.

epd: Die Bundeswehr arbeitet derzeit an einer Doktrin für den Einsatz von KI, auch wenn derzeit nicht nach außen dringt, wie diese Doktrin aussehen mag. Vor fünf Jahren wäre das noch undenkbar gewesen. Ist der Einsatz von KI für Sie nach wie vor eine Grenze, die nicht überschritten werden darf?

Pletsch: Definitiv. Aber wir merken, dass der russische Krieg gegen die Ukraine die Debatte weiter erschwert hat. Staaten stellen sich momentan auf kriegerische Auseinandersetzungen ein, rüsten auf und wollen nicht im Nachteil sein. Es wird angenommen, dass die Gegner auf jeden Fall KI einsetzen. Ich würde dafür werben, die bestehenden Foren zu nutzen und neue zu schaffen, um Abrüstungsinitiativen zu stärken. 119 Staaten unterstützen Verbote und Regulierungen von Autonomie in Waffensystemen, darunter auch China. UN-Generalsekretär António Guterres fordert den Abschluss von Verhandlungen bis 2026. Das wäre spät, aber nötig.