Drücken Sie „Enter“, um den Inhalte zu überspringen

Autonome Waffensysteme: „Es braucht dringend klare Verbote und Vorschriften“

Dieser Artikel stammt von Netzpolitik.org.

Autonome Waffensysteme„Es braucht dringend klare Verbote und Vorschriften“

Die israelische Armee soll im Gaza-Krieg sogenannte künstliche Intelligenz einsetzen, um Hamas-Ziele zu identifizieren. Die israelischen Streitkräfte widersprechen entsprechenden Medienberichten. Dessen ungeachtet fordert Thomas Küchenmeister von der Internationalen Kampagne zum Verbot der Killerroboter, autonome Waffensysteme weltweit strenger zu regulieren.


Nora Nemitz – in Demokratiekeine Ergänzungen
„Lavender“ soll im Gazastreifen automatisiert zehntausende Ziele ausgewählt haben – Alle Rechte vorbehalten IMAGO / Xinhua

Im Gaza-Krieg setzt die israelische Armee angeblich ein KI-System ein, um gezielt Personen ausfindig zu machen, die mit der Hamas in militärischer Verbindung stehen. Sechs israelische Geheimdienstoffiziere, die namentlich nicht genannt werden, äußerten sich entsprechend gegenüber dem Online-Magazin +972. Demnach würden die Israelischen Verteidigungsstreitkräfte (IDF) Systeme künstlicher Intelligenz dazu nutzen, um potenzielle Ziele auszumachen und zu kennzeichnen.

Das System Lavender

Das Programm „Lavender“ (zu Deutsch: Lavendel) soll seit Kriegsbeginn Ende Oktober 37.000 mögliche Ziele identifiziert haben. Bei den meisten soll es sich laut der Quellen um Hamas-Kämpfer niedrigen Ranges handeln. Das System soll die Unit 8200, eine Eliteeinheit des israelischen Geheimdienstes, entwickelt haben. Wie Lavender genau funktioniert oder trainiert wurde, ist öffentlich nicht bekannt.

Angeblich sei die Unit 8200 nach einer stichprobenartigen Überprüfung zu dem Schluss gekommen, dass Lavender über eine 90-prozentige „Trefferquote“ verfüge. Das habe die IDF dazu veranlasst, den umfassenden Einsatz des Systems als Instrument für Zielempfehlungen zu genehmigen. Laut der Quellen greife das System auf eine Datenbank zu, die Informationen von zehntausenden Personen enthält. Der Artikel sagt nichts darüber, wie die vermeintlich algorithmische Entscheidungsfindung im Detail funktioniert.

Die Quellen betonen, wie sehr das System ihre Arbeit vereinfacht habe. „Ich hatte keinerlei Mehrwert als Mensch, abgesehen davon, dass ich als Gütesiegel fungierte.“ Der Zeitaufwand, um ein militärisches Ziel zu bestätigen, habe in der Regel nur rund 20 Sekunden betragen. Meist sei nur geprüft worden, ob die Zielperson männlich sei.

„Jeder hier, auch ich, hat am 7. Oktober Menschen verloren“, so eine Quelle gegenüber +972. „Die Maschine hat das kühl berechnet, und dadurch wurde es leichter.“

IDF weist Recherche-Ergebnisse zurück

Insbesondere zu Beginn des Krieges habe die IDF das System häufig eingesetzt. Die Streitkräfte sollen demnach in kurzer Zeit möglichst viele Zielvorgaben gefordert haben, um massiv gegen die Hamas vorgehen zu können. In den ersten Wochen habe die israelische Armee die Genehmigung erteilt, wonach für jedes Ziel, das „Lavender“ markiert habe, bis zu 15 bis 20 Zivilist:innen getötet werden dürften. Lavender sei ergänzend zu einem anderen System namens The Gospel eingesetzt worden, das Gebäude und andere Strukturen als Ziele vorschlage.

Bei den militärischen Einsätzen habe die IDF dann vor allem „dumme Bomben“ eingesetzt, die nicht ins Ziel gelenkt werden und kostengünstiger sind. Diese Bomben sind vergleichsweise ungenau, weshalb ihnen tendenziell auch mehr Zivilist:innen zum Opfer fallen.

Die israelische Armee bestreitet gegenüber dem britischen Guardian, Systeme künstlicher Intelligenz dafür einzusetzen, „die Terroristen identifizieren oder versuchen vorherzusagen, ob eine Person ein Terrorist ist“. Lavender sei vielmehr eine Datenbank mit geheimdienstlichen Informationen, die dabei helfe, „aktuelle Informationen über die Militärangehörigen terroristischer Organisationen zu erhalten“.

Jedes Ziel werde individuell hinsichtlich des zu erwartenden militärischen Vorteils und der drohenden Kollateralschäden bewertet, so die IDF. Die Streitkräfte würden keine Angriffe durchführen, wenn die zu erwartenden Kollateralschäden zu groß ausfallen. Die Bewertung erfolge durch die Befehlshaber sowie „auf einer Vielzahl von Bewertungsmethoden und nachrichtendienstlichen Maßnahmen“, so die israelische Armee weiter.

Forderung nach strenger Regulierung

„Streng genommen ist das Lavender-System für sich keine autonome Waffe“, sagt Thomas Küchenmeister von der Internationalen Kampagne zum Verbot der Killerroboter gegenüber netzpolitik.org. Allerdings könne es als Bestandteil eines komplexen autonomen Systems dazu genutzt werden, etwa in Verbund mit sogenannten Battlefield Management Systemen (BMS) und einem Sensor-to-Shooter-System wie das israelische Fire Weaver.

„Lavender steht mit Einschränkungen schon jetzt für den zunehmend unkontrollierten Einsatz künstlicher Intelligenz in Konflikten“, so Küchenmeister, „und damit für eine verstörende digitale Entmenschlichung und den Verlust menschlicher Kontrolle bei der Anwendung von Gewalt.“ Weil es eine Person auf einen Datenpunkt reduziere, stehe das System vermutlich im Widerspruch zum internationalen Völkerrecht und verletze die Menschenwürde.

Anfang November vergangenen Jahres hat die Generalversammlung der Vereinten Nationen eine kritische Resolution zu autonomen Waffensystemen beschlossen. Aus Sicht von Thomas Küchenmeister zeige der zunehmende Einsatz von derartigen Systemen vor allem eines: „Es braucht dringend klare Verbote und Vorschriften in Bezug auf autonome Waffensysteme durch das internationale Recht“.

Zur Quelle wechseln
Zur CC-Lizenz für diesen Artikel

Author: Nora Nemitz

Hergestellt aus hochwertigem olivenöl und angereichert mit grünem tee extrakt. Dieses bild teilen :.