Gastbeitrag aus
Streitkräfte und Strategien - NDR info
14. Juni 2014


Bewaffnete Drohnen als Einstieg?

Entscheiden bald autonome Kampfmaschinen über Leben und Tod?

Gastbeitrag von Andreas Dawidzinski

Die Streitkräfte setzen schon lange auf Hochtechnologie. Waffensysteme, die,  wenn sie aktiviert sind, automatisch feuern - ohne zutun der Soldaten - gibt es bereits. Zum Beispiel das Aegis-Raketenabwehr-System auf US-Kriegsschiffen, oder aber das zurzeit in der Türkei stationierte Luftabwehrsystem Patriot der Bundeswehr, das anfliegende Raketen abwehren soll.

Diese Waffen dienen lediglich zur Verteidigung. Sie werden daher von Rüstungskritikern und Vertretern von Nichtregierungsorganisationen auch nicht  zur Disposition gestellt. Bedenklich gehalten wird aber eine in der Öffentlichkeit kaum zur Kenntnis genommene Entwicklung von autonomen Offensiv-Systemen. Beispielsweise Drohnen, die ihre Ziele selbständig suchen, und anschließend sofort bekämpfen können.

Der Physiker Jürgen Altmann vom International Committee for Robot Arms Control ICRAC: 

O-Ton Altmann
„Wir möchten gerne autonomes Angreifen komplett verbieten. Vor allem wegen der Grundsatzfrage, soll man Maschinen überhaupt erlauben, Menschen zu töten. Und auf der zweiten Ebene müssen für die nicht autonom angreifenden [Systeme], die ferngesteuert angreifen würden, -  für die müssten in jedem Fall Beschränkungen eingeführt werden." 

Noch gibt es diese autonomen bewaffneten Offensivsysteme nicht. Doch es wird daran gearbeitet, vor allem in den USA. Zugleich wird sich dort bereits mit den möglichen Folgen auseinandergesetzt. Eine solche Diskussion findet in Deutschland allerdings nicht statt, kritisiert Niklas Schörnig von der Hessischen Stiftung Friedens- und Konfliktforschung:

O-Ton Schörnig
„Die amerikanische Direktive 3000.09 des Pentagon setzt sich mit der Frage auseinander, was Autonomie sein kann auf dem Schlachtfeld und legt gleichzeitig für die nächsten zehn Jahre fest, dass in den USA zumindest immer eine menschliche Kontrolle über einen Waffeneinsatz gewährleistet sein soll. Das bedeutet nicht, dass man nicht an dem System forscht, das den Menschen ersetzen kann. D.h. nicht, dass man in zehn Jahren anders darüber nachdenken könnte. Aber zumindestens ist es für die Diskussion ein Ansatz, sich a) mit den Definitionen, was verstehen die USA unter autonomen Handeln, auseinanderzusetzen , und  b) auch mit der Frage, wie stark muss der menschliche Einsatz  beim Waffeneinsatz bleiben. Ich würde mir wünschen, dass wir so eine Vorlage, an der wir uns  abarbeiten könnten, auch von der deutschen Bundesregierung bekämen.“

So ein Papier gibt es allerdings in Deutschland nicht. Dabei prüft das Verteidigungsministerium zurzeit, ob die Bundeswehr mit Drohnen ausgestattet werden soll, die sich auch bewaffnen lassen. Weitere Modernisierungsschritte könnten folgen. Denn die unbemannten Luftfahrzeuge lassen sich aus Sicht der  Militärs noch weiter  optimieren.  Frank Sauer, Mitarbeiter der Münchner Bundeswehr-Universität:

O-Ton Sauer
„Wenn ich die Steuerungs- und Kommunikationsverbindung mit dem System nicht mehr permanent aufrechterhalten muss, beispielsweise über einen Satelliten, dann hat das mehrere Vorteile. Denn so eine Verbindung ist störungsanfällig. Der Eurohawk hat ja mehrmals die Verbindung zum Satelliten verloren, als er von den USA nach Europa überflogen wurde. Und es ist natürlich so, dass die Latenzen wegfallen, also die Zeitverzögerung, die eben dadurch eintritt, dass das vom Menschen ausgelöste Steuerungssignal zur Drohne geschickt werden muss. Die Drohne muss reagieren, dann sieht der Mensch, was passiert. All diese Dinge würden wegfallen. Taktisch gesehen gibt es durchaus einen wertvollen Zeitgewinn dadurch, dass dieses  System  handelt und entscheidet."

Bundesregierung und auch die Bundeswehr bekräftigen zwar, dass beim Waffeneinsatz  immer der Mensch die letzte Entscheidung über Tod und Leben haben wird. Doch der gleichzeitige Wunsch nach mehr Effizienz der Waffensysteme könnte genau das Gegenteil bewirken. Zu diesem Schluss kommt der hessische Konfliktforscher Niklas Schörnig:

O-Ton Schörnig
„Wenn man sich mit Militärs unterhält, wird immer wieder, teilweise auch recht schwärmerisch, von den zukünftigen Leistungsfähigkeiten unbemannter Systeme gesprochen. Da wird dann gesagt, die können extrem wendige Manöver fliegen. Die können Sachen machen, die kein bemannter Jet machen kann, weil der Pilot dann das Bewusstsein verliert. Auf der anderen Seite wird dann gesagt, wir wollen den Menschen in der Entscheidungsschleife halten. Für mich passt das nicht zusammen, weil die Systeme aktuell ferngesteuert werden. Das Signal läuft über Satellit. Man hat zwischen Steuerimpuls und Reaktion des Systems dann eine Verzögerung von zwei Sekunden. Und wenn ich diese Verzögerung einkalkuliere, kann ich die technischen Möglichkeiten, die hervorgestellt werden, überhaupt nicht ausnutzen. Um diese Technologie wirklich ausnutzen zu können, kann der Mensch nicht mehr in der Schleife bleiben.“

Wenn künftig aber komplexe Waffensysteme selbständig über die Bekämpfung von Zielen entscheiden sollten, stellen sich viele Fragen. Ethische aber auch rechtliche. In einem bewaffneten Konflikt müsste beim Waffeneinsatz beispielsweise das Prinzip der Verhältnismäßigkeit beachtet werden. Das autonome Waffensystem müsste abwägen, in welchem Umfang bei einem Angriff auch zivile Opfer in Kauf genommen werden können. Der Gießener Völkerrechtler Thilo Marauhn ist skeptisch:

O-Ton Marauhn
„Im Recht des bewaffneten Konflikts kommt es darauf an, ob der konkrete und unmittelbare militärische Vorteil außer Verhältnis zu den Nebenfolgen des Angriffs steht. Wenn man das programmieren will, dann ist das nicht ganz so einfach, jedenfalls nach meiner Einschätzung. Es dürfte also relativ schwierig sein, so etwas in einen Algorithmus zu übersetzen. Es ist jedenfalls schwer, zu programmieren.“

Trotz des technischen Fortschritts ist es offenbar schwierig für Sensoren, zwischen Kombattanten und Zivilisten zu unterscheiden. Gerade in asymmetrischen Konflikten tauchen Aufständische nach Kampfhandlungen aber immer wieder in der Bevölkerung unter, sind dann äußerlich von Zivilisten kaum zu unterscheiden. Vor diesem Hintergrund haben die US-Streitkräfte bereits jetzt  Konsequenzen gezogen, sagt Thilo Marauhn:

O-Ton Marauhn
„Die US-amerikanischen Streitkräfte haben eine militärische Dienstvorschrift, die vorsieht, dass autonome Waffensysteme nur gegen militärische Objekte eingesetzt werden dürfen, nicht aber gegen Kombattanten, also nicht gegen Menschen, sondern nur gegen Gegenstände... Das dürfte vor allem damit zusammenhängen, dass es für ein autonomes System schwieriger ist, zwischen einem Kombattanten und einer Zivilperson zu unterscheiden als zwischen einem zivilen Objekt und einem militärischen Objekt.“

Autonome Waffensysteme werden noch viel stärker von der Software abhängig sein als die bisherigen Technologien. Und damit werden sie zugleich verwundbarer -  durch Hackerangriffe. Denn schon jetzt zeigt sich, dass es bei fast jeder Software immer wieder Lücken und Fehler gibt. Bei autonomen Waffensystemen und weiterentwickelten Drohnen wird das nicht anders sein. Marcel Dickow von der Stiftung Wissenschaft und Politik:

O-Ton Dickow
„Das macht Robotik auf eine besondere Weise angreifbar und führt möglicherweise dazu, sich Gegner von robotischen Armeen, auf eine Strategie verlegen, diese Systeme digital anzugreifen.“ 

Vor zwei Jahren landete beispielsweise eine über Afghanistan eingesetzte hochmoderne Sentinel-Aufklärungsdrohne der USA im Iran. Teheran behauptet, das unbemannte Luftfahrzeug gekapert und die Kontrolle über die Drohne übernommen zu haben.

Für Technikexperten gibt es einen nicht mehr zu stoppenden Trend hin zu autonomen Systemen, die auch lernen können. Haupttriebkraft ist der zivile Bereich. Industrieroboter werden immer weiter verbessert, sie können immer mehr. Experimentiert wird zudem mit  selbständig fahrenden autonomen Autos. Alles Systeme, die den Menschen entlasten und ihn unterstützen sollen. Die Streitkräfte versuchen, sich diese technologischen Fortschritte für ihre Zwecke zu nutzen – für den Kampf.

Ein internationales Verbot bewaffneter Drohnen durchzusetzen, wird von vielen Rüstungskennern inzwischen für unrealistisch gehalten. Dieser Zug ist längst abgefahren, ist zu hören. Stattdessen wird  von Nichtregierungsorganisationen auf die Ächtung autonomer Drohnen und Waffensysteme gesetzt. Jürgen Altmann vom International Committee for Robot Arms Control ICRAC ist zuversichtlich, und verweist auf eine UN-Expertenkonferenz im vergangenen Monat in Genf:

O-Ton Altmann
„Dort hat es große Betroffenheit gegeben – bei vielen Ländern. 87 Länder waren anwesend. Einige haben sich schon für ein Verbot autonomer Angriffe ausgesprochen. Eine große Zahl anderer Staaten hat gesagt, wir sehen da ein Problem, und wir müssen uns genauer informieren und Gedanken machen,  was da passieren sollte.“

Marcel Dickow von der Berliner Stiftung Wissenschaft und Politik ist nicht ganz so optimistisch. Er plädiert für einen anderen Ansatz:

O-Ton Dickow
„Was ich mir vorstellen könnte, ist, dass man bestimmte autonome Funktionen verbietet. Plausibel ist ein Verbot, wenn eine Maschine autonom zu einer Tötungsentscheidung kommt oder zu einer Entscheidung kommt, militärische Gewalt einzusetzen. Ich denke, das ist die rote Linie, die wir ziehen sollten."

Der Konfliktforscher Niklas Schörnig hält es für wichtig, bereits jetzt entsprechende  Pflöcke einzuschlagen, um einen Rüstungsschub durch autonome Waffensysteme zu verhindern. Er verweist dabei auf die aktuelle Debatte über die Beschaffung von bewaffneten Drohnen für die Bundeswehr. Um autonome Systeme zu ächten, würde er auch Zugeständnisse machen:

O-Ton Schörnig
„Ich glaube, dass angesichts der Tatsache, dass das Argument des Schutzes der eigenen Soldaten gerade in demokratischen Staaten ein gutes Argument ist, und angesichts der Tatsache, dass die Systeme schon etabliert sind, und ein internationales Verbot bewaffneter ferngesteuerter Drohnen nicht mehr durchsetzbar ist. Es wäre in meinen Augen in Ordnung, bewaffnete ferngesteuerte Systeme zu beschaffen, wenn gleichzeitig, a) sichergestellt wird, dass sie nur in einem sehr engen Einsatzbereich, nämlich zum Schutz, eingesetzt werden, und gleichzeitig, alles unternommen wird, um auch andere Staaten daran zu hindern, sie offensiv in anderen Szenarien einzusetzen - auch gegen die eigene Bevölkerung. Zusätzlich müsste außerdem sichergestellt werden, dass der Trend hin zur Autonomie, jetzt wo er noch stoppbar ist, unterbunden wird."

Eine Folge des Einsatzes bewaffneter Drohnen, ob autonom oder nicht, könnte aber sein, dass die Politik bei internationalen Konflikten künftig öfter als bisher auf militärische Instrumente bei internationalen Konflikten zurückgreift. Die Hemmschwelle, Gewalt anzuwenden, könnte sinken. Der Rüstungsexperte Niklas Schörnig:

O-Ton Schörnig
„Grundsätzlich gilt, wenn ich die Kosten reduzieren kann, werden bei gleichen Erfolgen, gleichen Gewinnen, mehr Einsätze führbar, mehr Einsätze dann interessant. Dieses Argument gilt meines Erachtens für alle Staaten, für alle Politiker, die diese Abwägung treffen, das heißt nicht, dass es zu einer Zwangsläufigkeit kommen muss, aber über die Bank hinweg würde ich eine politische Enthemmung deutlich eher erwarten, als auf der militärischen Ebene.“

Die Entwicklung könnte nur verhindert werden, wenn sich die Abgeordneten künftig kritischer als bisher mit Auslandseinsätzen auseinandersetzen. Denn mittlerweile kann man den Eindruck haben, dass eine intensive Prüfung im Parlament nicht mehr stattfindet, sondern Einsätze nur noch abgenickt werden.

Die Zustimmung des Bundestages zu Auslandsmissionen ist inzwischen Routine. Die Entsendung von Soldaten in bewaffnete Konflikte sollte allerdings immer eine Ausnahme bleiben und nie der Normalfall werden.


Andreas Dawidzinski ist freier Journalist.