Berlin. Bundesjustizminister Heiko Maas warnt vor der unkontrollierten Verbreitung von autonomen Waffen. Die Entwicklung ginge rasant voran.

Weltweit werden tödliche autonome Waffen entwickelt. Dank künstlicher Intelligenz (KI) werden solche Waffensysteme Ziele selbstständig erfassen und zerstören können, ohne dass ein Mensch eingreift. Sie entziehen sich seiner Kontrolle, auch der Rüstungskontrolle. „Blinde Flecken“, könne man sich nicht leisten, warnt Außenminister Heiko Maas (SPD) im Gespräch mit unserer Redaktion. „Wir müssen diese Themen stärker auf die internationale Tagesordnung setzen“, fordert er. Neue Waffen – neue Regeln.

Brigadegeneral Gerald Funke, KI-Experte der Bundeswehr, glaubt, dass es solche „Killerroboter“ bisher nicht gibt, dass sie jedoch technisch machbar seien. Die Weltgemeinschaft hat die einmalige Chance, bereits in einem frühen Stadium Regeln zu setzen. Auf Uno-Ebene wird seit mehr als fünf Jahren darüber verhandelt, bisher ergebnislos. Die nächste Runde in Genf steht Ende März an.

Verhaltenskodex gefordert

Für den heutigen Freitag lud Maas 450 Experten und Diplomaten zu einer Konferenz ins Auswärtige Amt ein, darunter die Außenminister aus Holland, Stef Blok, und Schweden, Margot Wallström, sowie UN-Abrüstungschefin Izumi Nakamitsu. 28 Staaten fordern ein Verbot von Killerrobotern. Länder wie die USA, Russland, Südkorea oder Israel sperren sich dagegen. Deutschland verfolgt mit Frankreich einen Mittelweg. Beide setzen sich für eine Verständigung und für einen Verhaltenskodex ein.

• Hintergrund: Autonome Waffen: Führen Killerroboter bald unsere Kriege?

Die Ächtung autonomer Waffen ist nur ein Fernziel. „Wir dürfen nicht zulassen, dass die Diplomatie von den technischen Entwicklungen überholt wird“, so Maas. Für ihn geht es im Kern um die Frage, „ob wir die Technologie beherrschen oder am Ende von ihr beherrscht werden“.

Ein pauschales Verbot wäre nach Ansicht von General Funke „nicht hilfreich“. Bislang gebe es nicht mal eine einheitliche Definition von autonomen Waffensystemen. Man müsse aufpassen, „das Kind nicht mit dem Bade auszuschütten“. KI ist nicht per se schlecht. Die Bundeswehr entwickelt anhand von „Big Data“, von Massendaten, seit 2017 ein Computerprogramm, um Krisen früher zu erkennen.