Autonome Waffensysteme

"Roboter kennen keine Empathie"

Eine Drohne am Boden vor dem schneebedeckten Bergen des Hindukusch.
"Die militärstrategischen Verlockungen sind enorm", sagt Robin Geiß. Hier eine US-Drohne des Typs "Predator" auf einer Luftbasis in Afghanistan. © AFP / Bonny Schoonak
Robin Geiß im Gespräch mit Korbinian Frenzel · 03.08.2015
Werden Soldaten in Kampfhandlungen künftig durch autonom agierende Robotersysteme ersetzt, die gezielt töten? Für die meisten Menschen ist das eine Horrorvorstellung. Auch der Sicherheitsexperte Robin Geiß warnt vor einem "Tod durch Algorithmen" - und plädiert für zumindest ein Teilverbot solcher Systeme.
Da ist sie wieder, die Vorstellung von einem "sauberen" Krieg: Autonome Robotersysteme übernehmen, mit Hilfe kluger Algorithmen, die Angriffe auf feindliche Stellungen und töten ebenso gezielt wie emotionslos. Das, was man gemeinhin als "menschliches Versagen" bezeichnet, würde wegfallen, denn Roboter zeigten auch in Hochrisikosituationen keine Ermüdungserscheinungen und kämen bestens mit der Daten- und Informationsflut zurecht, die bei bewaffneten Konflikten anfällt.
Keine Zukunftsmusik mehr
Namhafte Forscher und Firmengründer im Bereich Künstliche Intelligenz wenden sich in einem offenen Brief gegen die Weiterentwicklung und Verwendung solcher autonomen Waffensysteme. Mitunterzeichner ist auch der deutsche Rechtswissenschaftler und Sicherheitsexperten Robin Geiß. Für ihn sind die beschriebenen Szenarien keineswegs ferne Zukunftsmusik. Im Deutschlandradio Kultur sagte Geiß, der an der Universität Glasgow tätig ist: "Die militärstrategischen Verlockungen sind enorm". Entzündet habe sich die Debatte an einem Papier des US-Verteidigungsministeriums. Demnach hätten die USA bekundet, "dass sie bis zum Jahr 2038 immer mehr militärische Systeme in solche autonomen Funktionen überführen wollen".
Geiß räumte ein, dass es eine Reihe von Vorteilen dieser Systeme gebe – etwa die Genauigkeit und geringe Fehleranfälligkeit. Deshalb seien sie etwa gut als autonome Minensuchboote geeignet. Doch die Nachteile überwiegen seiner Meinung nach deutlich, er fordert deshalb ein Teilverbot:
Mathematische Tötungsentscheidung
"Die Kehrseite dessen, dass diese Systeme so rational operieren ist eben, dass sie auch keine Gnade kennen und auch keine Empathie. Und wenn man solchen Systemen Entscheidungen über Leben und Tod überantwortet, dann hat man auf einmal - der UN-Sonderberichterstatter hat davon gesprochen – 'Tod durch Algorithmen'. Man hat also eine vorkalkulierte mathematische Tötungsentscheidung, die diese Systeme dann abarbeiten. Und das ist doch eine erhebliche Entwertung des menschlichen Lebens."
Mehr zum Thema