Kampfroboter und autonome Waffensysteme

Hört man die Begriffe autonome Waffensysteme und Kampfroboter, denkt man an Hollywood-Filme wie «Terminator». Es geht zwar nicht um humanoide Kampfmaschinen, dennoch ist diese Science-Fiction im Begriff Realität zu werden – und sie bringt neue Gefahren und Probleme mit sich.

Nach dem Schiesspulver und den Atomwaffen droht die dritte Revolution der Kriegsführung: Kampfroboter, die autonom töten. Es geht um Weiterentwicklungen von Waffensystemen wie Drohnen, Panzern oder U-Booten, die unbemannt unterwegs sind. Zurzeit werden diese Systeme noch von Menschen ferngesteuert. Es gibt aber Stimmen, die behaupten, dass es technisch in mittelfristiger Zukunft möglich sein wird, Waffen zu konstruieren, die auf die menschliche Entscheidung verzichten können und somit komplett autonom handeln. Zu nennen sind hierbei beispielsweise Drohnen, die, einmal aktiviert, ohne menschliche Kontrolle operieren: Sie wählen selbständig Ziele aus, greifen an, töten oder verletzen Menschen.

An dieser Science-Fiction mit künstlicher Intelligenz, auch «KI» genannt, wird heute bereits geforscht. Es existieren bereits rudimentäre Vorläufer. Die USA testen beispielsweise ein unbemanntes Kampfflugzeug, die X-47B, das autonom auf einem Flugzeugträger starten und landen kann. Ausserdem kann es selbständig in der Luft an ein Tankflugzeug
andocken und sich auftanken. Die eigenmächtige Attacke auf feindliche Ziele scheint für diese sogenannte «Grosskampfdrohne» der nächste logische Schritt zu sein.

Es gilt jedoch zu bedenken, dass die erwähnten Tätigkeiten der Drohne alle in einem «kooperativen Umfeld» möglich sind, also in diesem Fall einem Flugzeugträger, welcher der Drohne mit entsprechenden Leitsignalen den Weg weist. Der Einsatz in einem Gelände, das gegen den Roboter arbeitet, also in einem Kriegsgebiet mit getarnten Gegnern, die sich unter die Zivilbevölkerung mischen oder sich ebenfalls mit High-Tech-Waffen wehren, ist eine grosse Herausforderung und zum heutigen Zeitpunkt noch nicht möglich. Bereits aber 2015 warnten zahlreiche Fachleute für künstliche Intelligenz, darunter der bekannte Physiker Stephen Hawking, in einem offenen Brief an die Uno vor den Folgen von Kampfrobotern. Die Technologie der künstlichen Intelligenz sei an einem Punkt angekommen, an dem der Einsatz autonomer Waffensysteme innerhalb von Jahren, nicht von Jahrzehnten möglich sei.

Zahlreiche ungeklärte Fragen

Diese Debatte wirft etliche ethische, sicherheitspolitische und insbesondere rechtliche Fragen auf. Das Kriegsvölkerrecht schreibt zum Beispiel zwingend vor, bei Angriffen eindeutig zwischen militärischen und zivilen Zielen zu unterscheiden. Dies können auto-
nome Waffensysteme (noch lange) nicht. Den autonomen Waffen fehlt es schlicht an menschlichem Urteilsvermögen, das heisst, sie sind nicht in der Lage, den Kontext zu verstehen. Ebenso stellt sich die Frage nach der Verantwortlichkeit bei Fehlern. Wenn beispielsweise bei einem Drohnenangriff wegen einer technischen Fehlleistung ZivilistInnen zu Schaden kommen, wer haftet? Denkbar wäre der befehlshabende Offizier. Dieser versteht aber das technische System nicht. Möglich wäre auch die Herstellerfirma, diese ist aber nicht dafür verantwortlich, wie die Streitkräfte diese Waffe einsetzen. Es stellen sich hierbei ähnliche, bislang ungeklärte, rechtliche Fragen wie bei selbstfahrenden Autos.

Es ist schwierig abzusehen, wie sich die Zukunft in Bezug auf die autonomen Waffensysteme entwickelt. In der Uno diskutiert mittlerweile eine Arbeitsgruppe von Regierungsexperten zum Thema. Es wird erwartet, dass im Dezember die Vertragsstaaten des Übereinkommens über das Verbot oder die Beschränkung des Einsatzes bestimmter konventioneller Waffen (CCW) ein Mandat verabschieden werden, um formelle Verhandlungen über ein Verbot autonomer Waffen aufzunehmen. Jayantha Dhanapala, Abrüs- tungsexperte und Diplomat meint dazu, eine vorbeugende präventive Ächtung sei besser als ein rückwirkendes Verbot von bereits existierenden Waffen. 


, ,