Der Mythos „gezielter Tötungen“: Über Verantwortung bei KI-gestützten Kriegssystemen am Beispiel von „Lavender“ und Co. in Gaza.

Rainer Rehak

Zusammenfassung
Wie genau wird KI in Kriegsgebieten eingesetzt? Das Lavender-Zielsystem der IDF in Gaza steht beispielhaft für moderne Kriegsautomatisierung. Durch die Analyse des technischen Designs und der verwendeten Konfiguration können wir die zugrundeliegenden technischen und politischen Probleme diskutieren.
Stage 7
Vortrag
Deutsch
Conference

Der Einsatz von KI in militärischen Kontexten und die Beziehung zwischen Mensch und Maschine sind seit Jahrzehnten ein theoretisches Thema in der Philosophie und den Sozialwissenschaften. Doch in den letzten Jahren wurden Waffensysteme mit KI-Komponenten entwickelt und tatsächlich eingesetzt. Ein Beispiel ist das KI-gestützte Zielwahlsystem „Lavender“, das vom israelischen Militär im aktuellen Gaza-Krieg eingesetzt wird.Der Vortrag stellt entlang des Beispiels aktuelle Entwicklungen vor und ordnet sie in den historischen und technischen Kontext der „Signature Strikes“ der USA ein. Dann werden die konkreten technischen Designentscheidungen und neue Einsatzmuster vorgestellt sowie kritisch diskutiert. Das konkrete Beispiel erlaubt eine Analyse der Verlagerung von individueller Verantwortung nach oben in der militärischen Hierarchie und belegt eine besondere Ignoranz des Völkerrechts. Die hier vorgestellten Ergebnisse basieren auf gemeinsamen wissenschaftlichen Arbeiten einer Gruppe von Fachleuten, die den Einsatz von KI-gestützten Systemen wie Lavender als Kriegsverbrechen kritisieren.