Jusletter IT

Fliegende Subsumtionsautomaten?

  • Author: Alexander Konzelmann
  • Category: Articles
  • Region: Germany
  • Field of law: Theory of Legal Informatics
  • Collection: Tagungsband IRIS 2014
  • Citation: Alexander Konzelmann, Fliegende Subsumtionsautomaten?, in: Jusletter IT 20 February 2014
Kampfroboter, Militärdrohnen und die Genfer Konvention IV zum Schutz der Zivilbevölkerung als Herausforderung für die Rechtsinformatik. Wenn die Steuerung vom Joystick-Piloten zum Computerchip an Bord wandert, geht die Verantwortung für die Beachtung von Rechtsregeln auf den Programmierer über.

Inhaltsverzeichnis

  • 1. Kampfmaschinen statt Soldaten
  • 2. Umfeld Recht
  • 3. Umfeld Informatik
  • 4. Erhöhung des Autonomiegrades
  • 5. Verantwortung der Rechtsinformatik

1.

Kampfmaschinen statt Soldaten ^

[1]
In Deutschland hat ein Verteidigungsminister unter Anderem aufgrund einer sogenannten Drohnenaffäre seinen Posten verloren. Ging es dabei um Fragen der Legitimität des Einsatzes von Kriegsmaschinen gegen nicht eindeutig identifizierte Personen in Staaten, mit denen man keine gemeinsame Grenze hat und um die Gefahr von sogenannten Kollateralschäden? Nein, es ging im Hintergrund um Haushaltsrecht. Man hat Geld ausgegeben, ohne vorher sicherzustellen, dass die einzukaufenden Flugapparate auch in Europa fliegen dürfen. Und im Vordergrund ging es darum, wer wen wann warum angeblich nicht oder nicht rechtzeitig informiert hatte. Eine klassische Fehlinvestition öffentlicher Gelder, wie sie in jedem Schwarzbuch von Rechnungshöfen nachzulesen ist. Der Titel «Drohnenaffäre» ist dabei eher zufällig, aber er ist publikumswirksam. Beim Thema Drohnen, insbesondere bei Kampfdrohnen, geht es um Fragen von Leben und Tod und die aktiv handelnden Militärs und Politiker stehen mit ihren Aktionen oft in der Kritik von Juristen, Journalisten und politischen Minderheiten. Seit Wikileaks und den Veröffentlichungen von Edward Snowden agieren die Geheimdienste weniger geheim und die Macht der veröffentlichten Bilder sorgt für Diskussionsstoff. Für den Einsatz von Kampfmaschinen anstelle von lebenden Soldaten spricht ganz praktisch die Risikobegrenzung. Dagegen spricht die Intransparenz der konkreten Kampfhandlungen.
[2]
Hier soll es nur nebenbei um Politik, Geld und Moral gehen, der Fokus liegt in der engen Verschränkung von Recht und Informatik, die sich in der Entwicklung von Kampfmaschinen abzeichnet. Die Informatik unterliegt dabei einem Wandel insofern, als sich die Programmierungen und Steuersequenzen im Laufe der Zeit aus der Einsatzzentrale heraus verlagern, und zwar in die Chips und Platinen der Kampfmaschinen selbst, seien es landgestützte Wachroboter, Spionagedrohnen oder fliegende Raketenwerfer.

2.

Umfeld Recht ^

[3]
Das Recht hingegen unterliegt weniger Wandel. Wann kann der Einsatz einer Kampfdrohne illegal sein?
[4]
Wenn der Einsatz außerhalb des eigenen Hoheitsgebietes erfolgt, muss ein Rechtfertigungsgrund für die Verletzung des fremden Luftraumes vorliegen. Das kann eine Einwilligung des Trägers der Lufthoheit sein, wenn z.B. die USA nach Mitgliedern einer Terrororganisation in einem mit ihnen befreundeten Staat suchen. Im Kriegsfall muss nach Kriegsvölkerrecht ein Kriegsgrund vorliegen. 1928 durch den Kellogg-Pakt wurde der Angriffskrieg als Mittel der Politik geächtet. Seither sind unter den Vertragsstaaten rechtlich nur noch Verteidigungskriege gerechtfertigt und es gibt keine Kriegserklärungen mehr. Dieser Pakt wurde 1945 durch das stärkere allgemeine Gewaltverbot in Artikel 2 Nummer 4 der UN-Charta überlagert. Dieses lautet:

    «Alle Mitglieder unterlassen in ihren internationalen Beziehungen jede gegen die territoriale Unversehrtheit oder die politische Unabhängigkeit eines Staates gerichtete oder sonst mit den Zielen der Vereinten Nationen unvereinbare Androhung oder Anwendung von Gewalt.»1

[5]
Nach allgemeiner Auffassung verbietet dieser Satz den Mitgliedsstaaten die militärische Gewaltanwendung als Mittel der Politik, sofern nicht das Recht auf Selbstverteidigung nach Artikel 51 der UN-Charta eingreift. Einen Rechtsfertigungsgrund aus dem Sanktionensystem der UN-Charta nach Artikel 41 UN-Charta kann es hingegen nicht geben, da auch diese Vorschrift Waffengewalt ausschließt. Ob der von der NATO festgestellte Bündnisfall wegen des «War on Terror» gleichzeitig einen Selbstverteidigungskrieg im Sinne der UN-Charta rechtfertigt, ist umstritten. Nach internationaler Rechtslage dürfte es also theoretisch keinen Krieg mehr geben.
[6]

Nichtsdestotrotz finden – wie uns die Nachrichten mitteilen – bewaffnete Einsätze zu politischen Zwecken statt, also so etwas wie kriegerische Handlungen. Und zwar unabhängig von ihrer völkerrechtlichen Qualifikation oder Rechtfertigung. Für den Ablauf solcher kriegerischer Handlungen gilt also entweder unmittelbar die Haager Landkriegsordnung oder es gelten deren Grundsätze analog als ungeschriebenes Völkerrecht für bewaffnete Konflikte, die nicht als Krieg eingestuft werden. Das Kriegsvölkerrecht ist nicht nur Völkergewohnheitsrecht, sondern zum Teil ausdrücklich in den Haager Landkriegsordnungen geregelt. Artikel 24 der HLKO erlaubt z.B. explizit die Anwendung der notwendigen Mittel, um sich Nachrichten über den Gegner und das Gelände zu verschaffen. Dieser Satz kann Aufklärungsdrohnen eine Rechtsgrundlage bieten. Es ist hingegen sogar im Krieg untersagt, «unverteidigte Wohnstätten» zu beschießen. Dies regelt Artikel 25 des Abkommens betreffend die Gesetze und Gebräuche des Landkriegs, abgeschlossen in Den Haag am 18. Oktober 1907, unter anderem unterzeichnet von Österreich, der Schweiz, den USA und Deutschland, bzw. von deren Rechtsvorgängern.2

[7]

Eine zentrale internationale Vorschrift, die bewaffneten Konflikten jeglicher Art einen äußersten Rechtsrahmen geben will, ist die Vierte Genfer Konvention vom 12. August 19493 und das Zusatzprotokoll vom 8. Juni 19774 (letzteres von den USA nicht ratifiziert). Im Falle eines bewaffneten Konflikts – ohne jede nachteilige Unterscheidung, die auf Art oder Ursprung des bewaffneten Konflikts beruht –, ist demnach jede der am Konflikt beteiligten Parteien gehalten, wenigstens die folgenden Bestimmungen anzuwenden:

[8]
Personen, die nicht direkt an den Feindseligkeiten teilnehmen, einschließlich der Personen, die infolge Krankheit, Verwundung, Gefangennahme oder irgendeiner anderen Ursache außer Kampf gesetzt wurden, sollen unter allen Umständen mit Menschlichkeit behandelt werden. Angriffe auf Leib und Leben solcher Nichtkombattanten sind nach Artikel 3 des Genfer Abkommens vom 12. August 1949 über den Schutz von Zivilpersonen in Kriegszeiten und nach Artikel 41 des Zusatzprotokolls vom 8. Juni 1977 verboten.
[9]

Sänitätseinheiten, -transporte und Personen, die ein Schutzzeichen (Rotes Kreuz, Roter Halbmond) tragen, dürfen nach der 1. Genfer Konvention nicht angegriffen werden.5

[10]
Außerhalb eines Kriegseinsatzes könnte eine Kampfdrohne zur Gefahrenabwehr im Sinne des Polizeirechts eingesetzt werden. Und ein solcher Einsatz auf fremdem Hoheitsgebiet könnte im Wege einer Art Amtshilfe oder aufgrund eines Duldungsabkommens nach dem auf dem Hoheitsgebiet geltenden Polizeirecht legalisiert werden. Dazu müsste klar definiert sein, von welcher Person oder Personengruppe eine solche Gefahr ausgeht, dass diese nur durch einen Angriff mit einer Kampfmaschine zuverlässig abgewehrt werden kann. Das klingt nach einer abenteuerlichen Rechtskonstruktion, ist aber immerhin denkbar.
[11]
Neben all diesen speziellen Erwägungen darf ein unbemanntes Luftfahrzeug außerdem nicht die zivile Luftfahrt gefährden. Artikel 8 (Luftfahrzeuge ohne Pilot) des Chicagoer Abkommens über die Zivilluftfahrt vom 7. Dezember 1944 bestimmt:

    «Ein Luftfahrzeug, das ohne Pilot geflogen werden kann, darf ohne Pilot das Hoheitsgebiet eines Vertragsstaates nur mit besonderer Bewilligung dieses Staates und gemäß den Bedingungen dieser Bewilligung überfliegen. Jeder Vertragsstaat verpflichtet sich, dafür zu sorgen, dass der Flug eines solchen Luftfahrzeuges ohne Pilot in Gebieten, die Privatluftfahrzeugen offen stehen, so überwacht wird, dass eine Gefährdung von Privatluftfahrzeugen vermieden wird.»

[12]
In Deutschland z.B. erhielt die Militärdrohne «Eurohawk» aus Sicherheitsgründen schlicht keine Zulassung für den zivilen Luftverkehr – und Gegenden, in denen kein ziviler Luftverkehr stattfindet, sind dort sehr rar.
[13]
Als Zwischenergebnis zum Umfeld Recht kann festgehalten werden: Eine bewaffnete Drohne muss eine ganze Reihe von Regeln einhalten, um überhaupt legal unterwegs zu sein. Und die Waffen dürfen nicht gegen Sanitätseinrichtungen, unverteidigte Wohnstätten, Zivilpersonen und andere Nichtkombattanten eingesetzt werden.

3.

Umfeld Informatik ^

[14]

Solange unbemannte Militärmaschinen ferngesteuert und mit vollständiger Radarüberwachung oder Echtzeitbildübertragung und -beeinflussung betrieben werden, befindet sich die gesamte juristische (und moralische) Verantwortlichkeit jederzeit transparent in Menschenhand. Es gibt Kartenmaterial, Radarüberwachung, Videokameras, Funksignale, eine Bodenstation mit Datenbanken, Rechnern, Piloten, weiterem Personal und Einsatzleitung. Bei gutem Willen kann also die Einhaltung des Rechtsrahmens sichergestellt werden, solange die Drohne in der Luft ist, und es kann sogar dokumentiert werden, welche Regeln befolgt und welche Informationen jeweils ausgewertet wurden. Es findet bereits jede Menge Informatik statt, bis eine solche ferngelenkte Drohne kontrolliert dorthin fliegt, wo sie soll, und eventuell noch einen Kampfeinsatz besteht. Aber die Kontrolle, ob Rechtsregeln eingehalten werden, wird dabei von Menschen ausgeübt. Die Situation wird in der Einsatzzentrale bewertet und es werden Befehle an den Piloten der Drohe gegeben. Wenn die Rechtslage unsicher wird, wenn z.B. unvorhergesehen eine Staatsgrenze überschritten wird oder wenn die Identifikation der Zielperson nicht mehr klar ist, kann der Einsatz aufgrund veränderter Informationen abgebrochen werden. Dabei handelt es sich um juristische «Handarbeit», nicht um Rechtsinformatik. Denn die Automatisierung des Drohnenfluges hat zuerst nur mit technischen Vorgängen zu tun und nicht mit juristischen Kategorien. Zu dem Problem, dass «überraschend jederzeit eine Busladung Nonnen am Einsatzort eintreffen könnte», schrieben die Autoren des NDR und der Süddeutschen Zeitung auf den Seiten http://www.geheimerkrieg.de/#entry-68-7048-das-brummen-des-todes:

    «(...) Auch in Ramstein, das weiß man von anderen Afrika-Einsätzen, steht vor den Monitoren ein Militärjurist, der Fragen stellt wie: Ist das Ziel sicher identifiziert? Sind die Mittel angebracht? Ist der geschätzte Kollateralschaden vertretbar im Rahmen der Mission? Erst wenn er hinter allen Punkten Häkchen setzen kann, wird gefeuert. Ein Vorgehen, das nur innerhalb der Logik des US-Drohnenkriegs schlüssig ist – bedenkt man, dass nur wenig später eine völkerrechtswidrige Exekution stattfindet.»

4.

Erhöhung des Autonomiegrades ^

[15]
Soweit zum allgemein bekannten status quo. – Ein taktisches Problem bei einer ferngesteuerten Drohne ist aber genau die Fernsteuerung: Erstens kann die Verbindung über Satelliten-Funksignale bei einem Tiefflug in gebirgigem Gelände oder unter dichten Wolken abreißen. Zweitens kann bei der Steuerung eines Flugkörpers in beispielsweise Pakistan aus einer Kommandozentrale in den USA der Zeitversatz bei der Datenübermittlung zu verspäteten Reaktionen führen. Drittens könnte ein feindlicher Dritter die Steuerung übernehmen. Schon aus diesen Gründen ist abzusehen, dass die Entwicklung autonom gesteuerte Militärmaschinen hervorbringen wird oder bereits hervorgebracht hat.
[16]
Bei Drohnen wird es bestritten. Spiegel online publizierte am 20. Dezember 2013 einen Bericht6, wonach ein Sprecher eines Rüstungsunternehmens aussagte, dass Drohnen, die autonom – also ohne menschliche Fernsteuerung – operierten, nicht zur Debatte stünden. Ein Experte eines anderen Herstellers sagte ebenfalls, dass autonome Drohnen derzeit nicht nur technisch nicht machbar seien, sie würden auch keine Zulassung für den Luftraum erhalten. Über Leben und Tod würden Roboter erst recht niemals selbständig entscheiden, erklärte laut diesem Bericht Christian Schmidt (CSU), Parlamentarischer Staatssekretär im Verteidigungsministerium. Der Einsatz von Waffen in bemannten oder unbemannten Flugzeugen «muss nach Überzeugung der Bundesregierung immer mit der Rückkopplung an eine natürliche Person erfolgen», antwortete Schmidt auf die Anfrage der Linksfraktion. «Eine vollautomatische Entscheidung zum Waffeneinsatz auf Grund einer ‹Computerlogik oder Maschinenlogik› wird es in der Bundeswehr nicht geben.»
[17]

Aber es gibt bereits bodengestützte autonome Wach- und Schießgefährte (sogenannte UGV), zumindest außerhalb von Deutschland. Z.B. Guardium von IAI in Israel7, bei dem ausdrücklich von «brain» gesprochen wird. Die online-Werbung preist ein «felderprobtes unbemanntes autonomes Bodensystem» an, während es in Wikipedia nur als «ferngesteuert» beschrieben wird. Auf der Seite http://defense-update.com/products/g/guardium.htm steht:

    «Das Guardium System setzt autonome unbemannte Bodenfahrzeuge (UGV) ein, die von einer Kommandozentrale aus gesteuert werden können, Routinepatrouillen ausführen können und schnell auf sich entwickelnde Notfälle reagieren können. Sie können verdächtige Elemente nahe an der Grundstücksgrenze abwehren und solange zurückhalten, bis bemannte Sicherheitskräfte eintreffen, oder auch verschiedene kraftvolle Mittel einsetzen, um die Gefahr zu eliminieren, wenn diese anwendbar sind.»

Abbildung 1: Guardium aus Israel, Creative Commons Photo: Cpl. Zev Marmorstein, IDF Spokespersons Unit

[18]

Für Sprengstoffbeseitigungsroboter gibt es Add-ons, die sie «semiautonom» machen, beschrieben auf der Homepage http://www.rec.ri.cmu.edu/projects/aa.8 Sehr interessant ist auch der Wikipedia-Eintrag zum Lemma «Abstandsaktive Schutzmaßnahmen»: ein Bordcomputer eines Panzers entscheidet in Millisekunden darüber, «hardkill»-Munition einzusetzen, wobei eine Gefahr für Personen im Umkreis besteht.

[19]
Und ob gewisse Drohnen nicht doch bereits heute autonom operieren können, mag ebenfalls bezweifelt werden.
[20]

Denn die autonome Stealth-Drohne Northrop Grumman X-47B wird von der «NDIA» (national defense industrial association), also von einem US-Kriegswaffenhersteller-Interessenverband, explizit als «airborne autonomous vehicle» bezeichnet, nachzulesen auf der Webseite http://www.nationaldefensemagazine.org/blog/Lists/Posts/Post.aspx?ID=11999.

Abbildung 2: Stealth-Kampfdrohne X47-B, © United States Air Force

[21]
Hier droht die Informatik schneller als das Recht zu werden. Eventuell auch schneller als die Moralphilosophie; 2013 erschien dazu das Werk «On the moral responsibility of military robots» von Thomas Hellström.10

5.

Verantwortung der Rechtsinformatik ^

[22]
Die Rechtsinformatik ist aufgefordert oder wird in naher Zukunft aufgefordert sein, eine Art «Subsumtionsautomaten» in solche Kampfroboter mit einem höheren Autonomiegrad einzubauen.
[23]

Dieser müsste, z.B. anhand

  • von stets aktualisierten GPS-Daten,
  • von Bildmaterial und
  • von biometrischen Daten,

eventuell auch anhand

  • von Geräuschen,
  • des SSR-Radarsignals eines Sanitätsluftfahrzeugs11

laufend (!) überprüfen, ob seine Mission mit seinen Befehlen, mit Kriegsvölkerrecht oder mit örtlichen Polizeivorschriften noch im Einklang steht.

[24]

Ein autonomer Kampfroboter sollte also nicht einfach ein einmal eingegebenes Ziel aufsuchen und zerstören; denn bis er am Ziel angekommen ist, könnte sich die Lage geändert haben. Daher sollte er Symbole wie Kriegsflaggen, eine weiße Flagge, das Rote Kreuz und den Roten Halbmond erkennen können, so wie ein Navigationsgerät Verkehrsschilder am Straßenrand erkennt. Er müsste über seine eigene Position und den Verlauf von Staatsgrenzen Bescheid wissen, was anhand des derzeitigen Standes der Technik über GPS keine wirkliche Herausforderung darstellen dürfte. Er müsste aber auch offen getragene Waffen ausmachen können, um bewaffnete Kombattanten von unbewaffneten Zivilpersonen zu unterscheiden. Und beim gezielten Einsatz gegen als gefährlich eingestufte Individuen müsste er Gesichter live gegen eine Datenbank mit biometrischen Daten von gesuchten Personen einerseits und von zu schützenden Personen andererseits abgleichen. Diese Anforderungen beruhen letztlich auf Rechtsfragen, die sich im Idealfall aus den Befehlsstrukturen der handelnden Militärmacht ableiten, sich aber mindestens aus dem Verhältnismäßigkeitsgebot im Polizeirecht, Staatsrecht und Völkerrecht sowie aus den oben teilweise zitierten Abkommen zum Kriegsvölkerrecht ergeben, zuoberst aus der UN-Charta und ansonsten insbesondere aus den Genfer Konventionen mit Zusatzprotokollen und auch aus der Haager Landkriegsordnung. Dabei ist nicht gesagt, dass die Beachtung dieser Anforderungen den Einsatz rechtfertigt und die Tötung von Menschen aus der Ferne legalisiert; aber umgekehrt steht meines Erachtens fest, dass der Einsatz autonomer Kampfmaschinen OHNE solche juristischen Zusatz-Programmierungen a priori rechtswidrig wäre. Die genannten rechtlichen Gebote müssen von den Video-Joystick-Piloten der derzeit bekannten Kampfdrohnen «nebenbei» beachtet werden.12 Aber die Automatisierung schreitet fort. Und wenn nun Computertechniker anstelle eines Drohnenpiloten ein Programm schreiben, dann tragen sie dessen bisherige Verantwortung, wenn sie per Algorithmus eine autarke Entscheidungsfindung «Schuss oder nicht Schuss» durch ein Kampfgerät veranlassen oder gar unterlassen, obwohl dies angebracht wäre. Diese Verantwortung der Militärpraktiker erfordert wissenschaftliche Begleitung oder besser noch Vorbereitung.

[25]
Da es hierbei nicht nur um militärische und politische Fragen geht, sondern im Zentrum um Recht und Informatik, halte ich die folgende Frage für berechtigt:
[26]
Müsste sich nicht die Rechtsinformatik in dieses unangenehme Gedankenfeld konsequenterweise aktiv einmischen und für Transparenz eintreten?
[27]
Vielleicht wäre es besser, vorab auf notwendige Zusatzinvestitionen und Entwicklungsaufwände hinzuweisen und sich bei Haushaltsverantwortlichen unbeliebt zu machen, als im Nachhinein von Journalisten gefragt zu werden, ob die Rechtsinformatik hier nicht eine Entwicklung ignoriert habe. Derzeit scheint das Thema «autonome Kampfmaschinen» an der Schwelle zwischen Science Fiction und Prototypenbau zu stehen, also an einem Punkt, in dem die Materie noch formbar ist. Zugegeben, es ist ein wunder Punkt, denn als Jurist möchte man seinen Namen nicht mit tödlichen Waffen in Verbindung gebracht sehen und als Informatiker im Dienste eines Rüstungskonzerns möchte man nicht unbedingt außer gefechtstaktischen Aufgaben auch noch rechtsphilosophischen Ballast in Code-Form übersetzen müssen. Andererseits baut man ja solche Drohnen und deren Verwandtschaft auch, um die eigenen Einsatzkräfte aus der Gefahrenzone herauszuhalten, also aus einem bestimmten Schutzaspekt heraus. Wenn nun Transparenz Einzug hielte und wenn man von vornherein einer Drohne eine Art Stempel aufdrücken könnte wie z.B. «konventionskonforme KI an Bord», könnte dies nicht auch positiv aufgenommen werden?
[28]
Rechtsinformatiker, die – mit oder ohne öffentlichen Auftrag – Lösungen für solche juristisch-technischen KI-Fragen suchen, um verantwortungsvollere Drohnen technisch zu ermöglichen, könnten also dazu beitragen, das Image solcher Tötungsmaschinen zu verbessern. Andererseits könnten sie auch Gefahr laufen, sich instrumentalisieren zu lassen; sie könnten ungewollt, alleine durch ihre Einbindung in den Forschungsprozess und unabhängig von der anschließenden konkreten apparativen Umsetzung, neue Versionen von Kampfrobotern legitimieren und deren gesellschaftliche Akzeptanz zu erhöhen helfen. Rechtsinformatiker, die sich hier engagieren, werden darauf achten müssen, nicht zu einer Art Feldgeistlichen zu werden, die Kanonen segnen.

 

Alexander Konzelmann

Abteilungsleiter Rechtsdatenbanken, Richard Boorberg Verlag Stuttgart

Scharrstraße 2, 70563 Stuttgart, DE

a.konzelmann@boorberg.de; http://www.boorberg.de

 


  1. 1 http://www.unric.org/de/charta.
  2. 2 Fundstelle: http://www.admin.ch/opc/de/classified-compilation/19070034/index.html.
  3. 3 Genfer Abkommen vom 12. August 1949 über den Schutz von Zivilpersonen in Kriegszeiten, Fundstelle: http://www.admin.ch/opc/de/classified-compilation/19490188/index.html.
  4. 4 Zusatzprotokoll vom 8. Juni 1977 zu den Genfer Abkommen vom 12. August 1949 über den Schutz der Opfer internationaler bewaffneter Konflikte, Fundstelle: http://www.admin.ch/opc/de/classified-compilation/19770112/index.html.
  5. 5 Insbesondere laut Artikeln 12, 19, 24 35 und 36 in Verbindung mit Artikel 38 (Schutzzeichen) des Genfer Abkommens vom 12. August 1949 zur Verbesserung des Loses der Verwundeten und Kranken der bewaffneten Kräfte im Felde, Fundstelle: http://www.admin.ch/opc/de/classified-compilation/19490186/index.html.
  6. 6 http://www.spiegel.de/wissenschaft/technik/bundesregierung-will-2014-ueber-drohnen-kauf-entscheiden-a-940030.html.
  7. 7 Mit Foto auf http://g-nius.co.il.
  8. 8 Zuletzt abgerufen am 30. Dezember 2013.
  9. 9 Zuletzt abgerufen am 30. Dezember 2013.
  10. 10 Zitat aus dem Abstract: «From a consequentialist view, it would indeed be highly immoral to develop robots capable of performing acts involving life and death, without including some kind of moral framework.» (http://link.springer.com/article/10.1007%2Fs10676-012-9301-2).
  11. 11 Artikel 9 des Zusatzprotokolls zu den Genfer Abkommen vom 12. August 1949 über den Schutz der Opfer internationaler bewaffneter Konflikte (Protokoll I) vom 8. Juni 1977.
  12. 12 Siehe die oben zitierte Homepage http://www.geheimerkrieg.de(«stets anwesender Militärjurist»); Autoren: Christian Fuchs, John Goetz, Antonius Kempmann, Hans Leyendecker, Abdalle Ahmed Mumin, Frederik Obermaier, Bastian Obermayer, Niklas Schenck, Tanjev Schultz, Jan Lukas Strozyk, Alexander Tieg, Tobias Zick.