Automatisiertes Töten

Der Physiker und Friedensforscher Jürgen Altmann warnt vor den dystopischen Entwicklungen auf dem Gebiet der künstlichen Intelligenz in der Kriegsführung.

Dr. Jürgen Altmann leitet die Arbeitsgruppe Physik und Abrüstung am Lehrstuhl Experimentelle Physik III der Technischen Universität Dortmund. Er bearbeitet naturwissenschaftlich-technische Probleme der Abrüstung, insbesondere in Bezug auf Militärtechnik und präventive Rüstungskontrolle. Größere Studien betrafen unter anderem Laserwaffen, Raketenabwehr, nicht-tödliche Waffen und unbemannte Fahrzeuge. Er ist außerdem Gründungsmitglied des Internationalen Komitees für Roboter-Rüstungskontrolle (ICRAC). Unser Autor traf ihn im Juni bei Kaffee und Kuchen in Köln, um über die Gefahren autonomer Waffensysteme zu sprechen.

Flavio von Witzleben: Herr Altmann, Sie setzen sich für ein Verbot von autonomen Waffensystemen ein. Was genau versteht man darunter?

Jürgen Altmann: Das sind Waffensysteme, die nicht mehr auf einen Menschen angewiesen sind, anders als die Kampfdrohnen, die es seit etwa 20 Jahren gibt und die über Funk ferngesteuert werden. Der Soldat oder die Soldatin sitzen dabei in einem Steuerstand, schauen, was die Videokamera meldet, und entscheiden dann, ob ein Ziel vernichtet wird oder nicht. Hierfür gibt es gewisse völkerrechtliche Prinzipien, die jedoch immer wieder missachtet werden.

Sie sprechen über gezielte Tötungen durch die USA im Nahen und Mittleren Osten.

Man kann mit Fug und Recht behaupten, dass dort das Kriegsvölkerrecht systematisch verletzt wird. Autonome Waffensysteme, auf der anderen Seite, würden allein entscheiden, ohne einen Menschen.

Das Internationale Komitees für Roboter-Rüstungskontrolle setzt sich für ein Verbot ein. Wie kam es zur Gründung?

Bei meinen Forschungen über Mikrosystemtechnik und Nanotechnik im Militär hat sich abgezeichnet, dass damit Kampfsysteme möglich werden, die ihre Ziele selbst auswählen und bekämpfen. Deshalb habe ich mich mit Kollegen vernetzt und mit ihnen 2009 in Sheffield diese Initiative gegründet. Wir wollen, dass sich die internationale Gemeinschaft mit den Gefahren dieser Technologie beschäftigt und die Frage beantwortet, ob es im Sinne des Weltfriedens wäre, wenn sich diese Systeme durchsetzen.

Können Sie Beispiele nennen, wo diese Systeme bereits angewandt werden?

In den USA gibt es zum Beispiel das Phalanx-System, eine mit Radar gesteuerte Maschinenkanone. Dieses System kann Schiffsflugkörper in letzter Minute im Automatikmodus zerstören, bevor ein Schiff getroffen wird. Reine Kampfroboter, die in einem gewissen Gebiet nach Zielen suchen, gibt es noch nicht.

Eine Vorform ist der Harpy-Flugkörper aus Israel, der über viele Stunden herumfliegen kann, aber dabei nur feststellt, wo es Radarsignale gibt und von wem sie kommen. Wenn er eine Antenne des Gegners erkannt hat, stürzt er sich hinein und explodiert. Harpy ist zwar ein autonomes Waffensystem, aber mit einer sehr speziellen Zielkategorie. Einige ferngesteuerte Drohnen können Ziele so markieren, dass man auf dem Bildschirm einen kleinen Kasten sieht und dann entscheiden muss, ob dahin geschossen wird. Da fehlt nur noch ein kleiner Schritt, bis das der Computer selbst macht.

Es gibt ja derzeit weder im Völkerrecht noch auf nationalstaatlicher Ebene einen rechtlichen Rahmen für diese Waffensysteme. Sie sind für ein komplettes Verbot.

Mit Ausnahme von Abwehrsystemen, die im Nahbereich angewandt werden.

Warum wollen Sie, dass diese Technologie verboten wird?

Weil die Gefahr besteht, dass falsche Entscheidungen getroffen werden und das Kriegsvölkerrecht verletzt wird, dass also zivile Objekte oder Personen bekämpft werden, die im Krieg zu schützen sind. Dabei geht es auch um sogenannte Kollateralschäden.

Wenn sich zivile Objekte oder Personen in der Nähe eines legitimen militärischen Ziels befinden, muss der Kommandeur abwägen. Wäre der zivile Schaden übermäßig im Vergleich mit dem angestrebten militärischen Erfolg? Eine solche Entscheidung erfordert viel militärische und allgemeine Lebenserfahrung sowie Kenntnisse von der Situation im Land. Das kann man nicht einfach so programmieren.

Unbemannte Flugkörper könnten auch einen Krieg auslösen.

Das ist noch viel wichtiger, ja. Da bieten autonome Waffensysteme erhebliche Risiken und Gefahren. In einer schweren Krise können sich Wechselwirkungen ergeben, auch wenn die Staaten den Krieg eigentlich nicht wollen. Ich denke an Fehlwahrnehmungen oder Fehler in den Steuerprogrammen, die ja nie miteinander erprobt werden könnten.

Der Deutsche Bundestag hat sich gegen eine Ächtung von autonomen Waffensystemen ausgesprochen. Es gab 2020 einen Antrag von den Grünen und den Linken, der abgelehnt worden ist. Welche Haltung hat die Bundesregierung?

Das ist eine zweideutige Geschichte. Im Koalitionsvertrag von 2021 ist man gegen eine Zulassung dieser Systeme. Wenn man jedoch ins Kleingedruckte schaut, wird es kompliziert. Die Frage ist: Ab wann spricht man von einem tödlichen autonomen Waffensystem? Die Bundesregierung versteckt sich da hinter einer Definition, die sehr spezielle Anforderungen nennt und diese Systeme in eine unbestimmte Zukunft verlegt. Ich habe das bei einer Anhörung im Bundestag 2019 angesprochen, bin aber auf taube Ohren gestoßen.

Der Bundestag hat 2021 mehrere Milliarden für die Entwicklung des Future Combat Air Systems freigegeben.

Das soll ein von einem Menschen gesteuertes Flugzeug werden mit bis zu fünf Kampfdrohnen, die keine Menschen an Bord haben, eingebunden in ein Weltraum-Überwachungssystem und in eine Combat Cloud, ein Computersystem, das das Ganze steuert. Fertig werden soll das zwischen 2035 und 2040. Neben der Bundesrepublik sind Frankreich, Italien und Spanien dabei.

Es wird immer wieder gesagt: Der Mensch muss die letzte Entscheidung behalten. Was das genau bedeutet, bleibt unklar. Und dass der Pilot in der Hitze des Luftkampfs wirklich noch gründliche Entscheidungen treffen kann, bezweifle ich sehr.

Wie sehen Sie die US-Drohnenangriffe, die in Ramstein gesteuert werden?

Es gibt Verträge, die den USA freie Hand lassen auf dem Gelände und darüber hinaus. Deutschland müsste sich schon sehr auf die Hinterbeine stellen, um diese Verträge zu kündigen. Das hätte womöglich zur Folge, dass die USA militärische Gegenmaßnahmen ergreifen oder sich aus Deutschland zurückziehen. Ein fiktives Szenario, das in absehbarer Zeit von keiner politischen Kraft in Deutschland ernsthaft angestrebt wird, außer vielleicht von der Linken.

Welche Rolle spielen die Vereinten Nationen in Sachen autonome Waffensysteme?

Es gibt ein Rahmen-Übereinkommen über bestimmte konventionelle Waffen, die übermäßige Leiden verursachen oder unterschiedslos wirken können. Ein Protokoll verbietet zum Beispiel Laserblendwaffen, die dazu führen, dass der Mensch komplett erblindet.

Regierungsvertreter und Experten diskutieren seit 2014 in Genf, ob es sinnvoll ist, für autonome Waffensysteme Begrenzungen einzuführen oder sogar ein Verbot. Dort gilt aber das Konsensprinzip. Jeder der 125 Mitgliedsstaaten hat ein Vetorecht. Das heißt: Wenn nur ein Staat gegen Verhandlungen stimmt, kommen diese nicht zustande. Genau das beobachten wir seit 2014: Eine Reihe von Staaten verhindern Verhandlungen über Begrenzungen oder ein Verbot.

Im aktuellen Konflikt in der Ukraine spielen Drohnen eine wichtige Rolle. Ist dieser Krieg bereits ein Vorgeschmack auf das, was mit autonomen Waffensystemen möglich ist?

Nein. Auch die Kamikazedrohnen werden weitgehend von Menschen gesteuert. Das ist militärisch sinnvoll, weil der Mensch besser ist, wenn es um Zielerkennung geht.

In den USA wird immer wieder über den Einsatz von Killerrobotern auch bei der Polizei diskutiert. Sehen Sie ähnliche Entwicklungen auch auf Europa zukommen?

Europa hat eine ganz andere Tradition, was die Nicht-Bewaffnung der Bevölkerung angeht, mit ein paar Ausnahmen, beispielsweise in Serbien. Ich sehe auch kein polizeiliches Motiv, auf autonome Waffeneinsätze umzurüsten.

Glauben Sie, dass eine starke Friedensbewegung dazu führen könnte, solche Systeme zu verhindern?

Das ist möglich. Aber dafür braucht es eine starke und kritische Öffentlichkeit. Wenn es die geben würde, dann sehe ich Chancen, insbesondere auch in Deutschland, das ja ein entscheidender Verbündeter der USA ist und auch in der EU eine große Rolle spielt. Aber dafür braucht es ein anderes politisches Klima und eine wache Öffentlichkeit. Ich fürchte, dass es erst zum großen Knall kommen wird, bevor die Menschen aufwachen.


Redaktionelle Anmerkung: Dieser Beitrag erschien zuerst unter dem Titel „‚Autonome Waffensysteme sind eine Gefahr‘“ auf der Seite der Freien Akademie für Medien und Journalismus.