Tötungslisten vom Algorithmus

Israel hat vor allem kurz nach dem 7. Oktober 2023 mithilfe von verschiedenen automatischen Systemen Palästinenser*innen zur Tötung ausgewählt. Dabei wurden für jedes als unwichtig eingestufte Hamas-Ziel bewusst bis zu 20 Zivilist*innen getötet. Die Technologie ist da und wird nicht mehr verschwinden. Kämpfen wir dafür, dass auch das internationale Recht nicht verschwindet!

Israel ist wohl das erste Land der Welt, das innert wenigen Wochen Tausende Menschen aufgrund der berechneten Resultate eines Algorithmus ohne weitere Prüfung töten liess. Das verheisst nichts Gutes für die Zukunft. Aber müssen wir uns vor den technologischen Entwicklungen fürchten, oder vor Staaten, die das humanitäre Völkerrecht ad absurdum führen und für einen bestreitbaren militärischen Nutzen massenhaft Zivilist*innen töten?

Die Technologie

Die an die Öffentlichkeit gelangten Informationen über Israels Vorgehen sowie das Wissen über die technischen Möglichkeiten geben relativ gut Aufschluss darüber, wie die eingesetzte Technologie funktioniert. Eine Recherche von +972 Magazine1 hat mindestens zwei Teile von Israels Tötungs-Infrastruktur aufgedeckt: Es gibt ein Werkzeug namens Lavender, das zum Ziel hat, jeder Person eine Wahrscheinlichkeit zuzuordnen, dass sie der Hamas angehört. Ein zweites Werkzeug namens “Where’s Daddy?” soll herausfinden, ob ein Familienvater gerade zuhause ist, um dann das ganze Gebäude zu bombardieren. Beide Werkzeuge erheben den Anspruch, Personen zu verfolgen, verfolgen aber eigentlich die Handys der Personen und erkennen nicht sofort, wenn ein Handy an eine andere Person weitergegeben wird. Lavender, genau wie die meisten Werkzeuge dieser Art, gibt kein absolutes Ergebnis aus, sondern einen Wert auf einem Spektrum von wahrscheinlich bis unwahrscheinlich.

Folie aus einer internen Bildungsveranstaltung für Spezialist*innen der Israel Defence Forces, via +972 Magazine. Die Beschriftung “GT” bezeichnet bekannte Hamas-Mitglieder (linke Hälfte). Die Maschine gibt dann für unbekannte Menschen eine Zahl zwischen 0 und 1 aus (rechte Hälfte), die kleiner ist, je mehr der digitale Fussabdruck dieser Person den Fussabdrücken von Hamas-Mitgliedern ähnelt. Wenn die Zahl unter einem gewissen Grenzwert lag, wurde diese Person zur Tötung freigegeben.

Rechtslage und politischer Wille

Israel hatte diese Werkzeuge schon lange, setzte diese aber früher dazu ein, um menschliche Analyst*innen zu unterstützen, die auf der Suche nach hochrangigen Hamas-Kämpfer*innen waren. In vergangenen Gewaltausbrüchen wurden mutmassliche Kämpfer*innen dann nach gründlicher Prüfung getötet. Dabei wurden zivile Opfer zwar in Kauf genommen, aber möglichst vermieden. Nach dem 7. Oktober wurden diese Werkzeuge direkt als Quellen von Tötungslisten verwendet. Alle Menschen mit Hamas-Bezug, inklusive Fusssoldat*innen und Zivilschützer*innen wurden zur Tötung freigegeben und für jedes rangniedrige, angebliche Hamas-Mitglied wurden bis zu 20 Zivilist*innen absichtlich getötet. Dabei wurde am Anfang ein Genauigkeitsziel von 90% festgelegt. Umgekehrt heisst das, dass in 10% der Fälle ein Mensch ohne Hamas-Bezug zusammen mit bis zu 20 Zivilist*innen getötet werden sollte.

Unabhängig von der eingesetzten Technologie und ob diese wie gewünscht funktioniert, sind solche Befehle Kriegsverbrechen, da eine der wenigen bindenden Verpflichtungen des humanitären Völkerrechts mit Füssen getreten wird: das Prinzip der Verhältnismässigkeit.2

Vor jedem Angriff müssen die Kriegführenden deshalb abschätzen, ob die möglichen Folgen für die Zivilbevölkerung noch verhältnismässig sind – verglichen mit dem zu erwartenden unmittelbaren und konkreten militärischen Ergebnis.

Erklärungen zum Völkerrecht des EDA

Ausblick für Israel und die Welt

Die von Israel verwendete Technologie zur Generierung von Tötungslisten benötigt grosse Mengen an Daten, die praktisch nur mit digitaler Massenüberwachung beschafft werden können. Deren Auswertung erfolgt mit Analysewerkzeugen, die weltweit an Universitäten unterrichtet und weiterentwickelt werden, weshalb sich die Verarbeitung solcher Daten kaum unterbinden lässt. Dahingegen kann die Massenüberwachung mit politischen Mitteln und mit technologischen Verbesserungen erschwert und gestoppt werden.

Wichtiger als technologische Massnahmen sind jedoch rechtliche und politische: Kriegsverbrechen müssen verfolgt werden, unabhängig davon, wer sie begeht und mit welchen Hilfsmitteln.

Bedrohungen aus dem Cyberraum spielen im schweizerischen sicherheitspolitischen Tagesgeschäft eine kleine Rolle. Deswegen widmen wir ihnen auch als GSoA oft wenig Zeit. Aber diese Themen werden mit der Zeit nur an Wichtigkeit gewinnen und es ist unsere Aufgabe als GSoAt*innen, dafür zu sorgen, dass bei der Abwehr dieser Bedrohungen die Menschenrechte und die Völkerrechte im Zentrum stehen!
Deswegen veröffentlichen wir bis auf weiteres in der GSoA-Zeitung Lukas’ Cyberkolumne, in der sich GSoA-Sekretär Lukas Bürgi jeweils einem Thema aus dem Bereich annimmt. Lukas interessiert sich seit vielen Jahren für die Problematik, so liegt Cyber auch genau auf dem Schnittpunkt zwischen seiner Arbeit bei der GSoA und seiner Ausbildung als Informatiker (BSc ETH Inf.-Ing.).
  1. Die Recherche wurde von +972 Magazin und Local Call durchgeführt und auf Englisch auf der Webseite des +972 Magazins veröffentlicht. Viele international bekannte Zeitungen haben darüber berichtet, darunter The Guardian (teilweise unabhängige zusätzliche Recherche von The Guardian), Huffpost, Washington Post und Foreign Policy. In der Schweiz gab es Artikel in der NZZ, beim SRF, beim Tagesanzeiger (mit weiteren Informationen zur Nutzung von Google-Produkten, siehe dazu auch The New York Times). In der Republik gab es einen Artikel über israelische Militärdienstverweigerer, von denen einer angab, unter anderem wegen der Verwendung der in diesem Artikel beschriebenen Tötungs-Algorithmen den Militärdienst abgebrochen zu haben. ↩︎
  2. Eine Analyse zur Rechtslage auf Basis der selben Recherche gibt es zum Beispiel auf Tech Policy.press ↩︎