"Die feige Waffe des weißen Mannes"

Von Jochen Stöckmann · 20.06.2013
Sind bewaffnete Drohnen ein angemessenes Mittel im Kampf gegen Terrornetzwerke wie El Kaida? Darüber diskutierten Friedensforscher und Politologen auf einer Veranstaltung der Heinrich-Böll-Stiftung in Berlin. Neben den bekannten Warnungen gab es einige provozierende Denkanstöße.
Eben erst hat US-Präsident Barack Obama in Berlin kritische Fragen nach den vielen zivilen Opfern von Kampfdrohnen mit der Ankündigung pariert, dass es künftig "strengere Vorschriften" für den Einsatz dieses Waffensystems geben werde. Da redet der Politologe Herfried Münkler dem quasi unbeschränkten Drohnen-Einsatz das Wort. Wenn etwa in Afghanistan, Pakistan oder im Jemen Raketen auf vermeintliche oder tatsächliche Terroristen abgefeuert werden, sollten das vorzugsweise "Piloten" erledigen, die vor ihren Computerkonsolen im fernen Florida sitzen:

Herfried Münkler: "Soweit vom Einsatzort entfernt vermag er seine Entscheidungen überlegt zu treffen. Technik verschafft ihm Beobachtungszeit und Entscheidungsgelassenheit. Genau das ist erstaunlicherweise in der jüngsten Diskussion über die Anschaffung und den Einsatz von Kampfdrohnen skandalisiert worden: die fehlende Symmetrie in der Konfrontation der Kämpfer, die Unverwundbarkeit einer Seite, die sich nicht zum Kampf stellt. Also Jakob Augstein: ‚die feige Waffe des weißen Mannes‘."

Nicht nur Jakob Augstein, Herausgeber des "Freitag", zieht publizistisch gegen die Kampfdrohnen zu Felde. Der Völkerrechtler Christof Heyns hat als UN-Berichterstatter für Fragen der sogenannten "gezielten Tötungen" dem Sicherheitsrat ein Moratorium für die Entwicklung derartiger Waffensysteme empfohlen. Aber gegen moralische, ethische und auch juristische Querschüsse hat Münkler provozierende Pfeile im Köcher: Die wechselseitige Abschreckung ist obsolet geworden mit dem Zerfall des Ostblocks, gegen Terror-Netzwerke wie Al Kaida braucht es andere Strategien – und die neue Technik:

Münkler: "Netzwerke sind weitgehend unsichtbar und unangreifbar. Deswegen sind sie auch nicht abzuschrecken und im Prinzip ähneln sie strukturell dem, was eine Drohne ist. Das heißt umgekehrt: Drohnen, Roboter und ähnliches sind Instrumente, mit denen postheroische Gesellschaften sich asymmetrisch agierender heroischer Gemeinschaften erwehren."

Der Befund "postheroischer" Gesellschaften im Westen schien bislang eher ein Thema für zeitgeistige Debatten, auf dieser 14. Außenpolitischen Jahrestagung der Böll-Stiftung aber erwies sich die Diagnose als zutreffend. Denn wenn es hierzulande etwa bei sogenannten "humanitären Interventionen" auch um außenpolitische Interessen oder geopolitische Orientierungen gehen müsste, konstatiert Marcel Dickow, Wissenschaftler in der Forschungsgruppe Sicherheitspolitik:

"Da ist glaube ich die politische Ebene, wenn wir uns jetzt auf die bewaffneten Drohnen konzentrieren, entscheidend. Und da sehe ich durchaus eine Veränderung: Da gibt es eine Argumentation, die nur ausgerichtet ist auf das eigene Land, auf die Bevölkerung im eigenen Land, dass das erste Argument für den Einsatz von Drohnen immer ist, dass das Leben der eigenen Soldaten geschützt wird."

Kommt irgendwann das automatisierte Töten?
Nach Münklers Dafürhalten sollten bewaffnete Drohnen in Zukunft eine Bundeswehr-Patrouille in Afghanistan vor einem Hinterhalt nicht nur warnen, sondern die eigenen Soldaten sofort aus der Luft unterstützen können. Dagegen wäre auf den ersten Blick kaum etwas einzuwenden. Aber was, wenn zum Beispiel die von Taliban entführten Tanklastwagen bei Kundus nicht von herkömmlichen Kampfjets bombardiert worden wären, sondern – mit der von Münkler beschworenen "Entscheidungsgelassenheit" – durch Drohnenpiloten?

Niklas Schörnig: "Bei einer gleichzeitigen Überwachung durch einen Piloten, der schaut, ist da alles in Ordnung, der also, wenn etwas Unvorhergesehenes passiert eingreifen kann, dann sprechen wir von einem on-the-loop-System. Und wenn die Drohne praktisch auf diesen menschlichen Kontrolleur auch noch verzichten könnte, dann sucht sie selbständig ihre Ziele und ‚entscheidet‘ über den Waffeneinsatz. Das wäre die vollständige Automatisierung beziehungsweise Autonomie solcher Systeme."

Für Niklas Schörnig von der hessischen Stiftung für Friedens- und Konfliktforschung birgt eben diese scheinbar zwangsläufige technologische Entwicklung erhebliche Gefahren: Wie kann ein automatisiertes Waffensystem erkennen, dass sich keine Taliban um die Tanklastwagen scharen, sondern Zivilisten auf der Suche nach Benzin? Und wie unterscheiden Computer zwischen einer Menschenansammlung, aus der geschossen wird und einer Hochzeitsgesellschaft, die ein Feuerwerk abbrennt? Dabei geht es nicht nur um kulturelle Unterschiede, sondern vor allem um die Frage, ob Waffensysteme eine derartige Eigenlogik entwickeln, dass am Ende die politische Steuerbarkeit von Außenpolitik untergraben und die Militarisierung von Konflikten beschleunigt wird.

Marcel Dickow: "Es gibt einen bestimmten Handlungsdruck aus der Technologie heraus: Möglicherweise ist es nicht nur eine, sondern es sind mehrere Drohnen. Dann hat man einfach das Problem, dass es nicht mehr genug Menschen gibt, die das alles in Echtzeit auswerten können und daraus Schlüsse ziehen können. Also wird es dafür einen Computeralgorithmus geben und der Mensch kann nicht mehr verstehen, wie die Maschine zu den Optionen kommt. Für die Offiziere ist das überhaupt keine schöne Vorstellung, dass Entscheidungen von Systemen, von Maschinen getroffen werden. Die Frage ist, an welcher Stelle setzen nicht die Streitkräfte, sondern die Politik die Grenze."

Eine rote Linie muss gezogen werden, nicht nur beim Chemiewaffeneinsatz, sondern auch bei der Entwicklung automatisierter Waffensysteme. Nicht nur in Syrien, sondern weltweit.
Mehr zum Thema