Jusletter IT

Modale und deontische Logik, autonome Kampfroboter

  • Author: Lothar Philipps
  • Category: Short Articles
  • Region: Germany
  • Field of law: Legal Theory
  • Collection: Q-Justice 2011
  • Citation: Lothar Philipps, Modale und deontische Logik, autonome Kampfroboter, in: Jusletter IT 29 June 2011
Ist es möglich oder erstrebenswert moralische und dennoch emotionslose Militärroboter zu konstruieren? Durch die deonitsche Logik, bzw. die sog. Modallogik ist uns ein Instrument an die Hand gegeben eine verwobene sozialweltliche und materialweltliche Kausalstruktur möglicher Folgen aufzuzeigen. Der hier dargelegte Vergleich kann hilfreich sein, neue Technologien in den bekannten Rechtsdiskurs zu stellen.
[1]
Modallogik ist die Logik, die mit Ausdrücken im Sinne von «notwendig» und «möglich» operiert. Aus Sätzen wie «Heute wird es mit Sicherheit regnen» und «Sicher ist: wenn es regnet, wird unser Dach nass» kann man modallogisch schließen: «Heute wird mit Sicherheit unser Dach nass». Es gibt verschiedene Ansätze, die Modallogik mit der Standardlogik in Verbindung zu bringen; der einfachste und für Anwendungen brauchbarste ist wohl der von Carnap, wonach synthetische Sätze, die «notwendige» Geltung beanspruchen, solche sind, die aus Naturgesetzen logisch folgen. Dass es «heute mit Sicherheit regnen wird», ist eine Aussage, die aus Naturgesetzen folgt, und dass dann «mit Sicherheit bei Regen unser Dach nass wird», ergibt sich ebenfalls aus einem Naturgesetz. «Möglich» ist alles, was nicht zu Naturgesetzen inWiderspruch steht. Wenn die Meteorologie für heute nicht ausschließt, dass trotz Regen gelegentlich die Sonne durchkommt, so ist das «möglich».
[2]
Carnap hatte Naturgesetze im Auge, doch lässt sich sein Gedanke auch auf Rechtsgesetze erstrecken. Dass man keine fahrlässige Körperverletzung begehen soll, folgt aus dem Strafgesetzbuch, und dass der Autofahrer, der es im Straßenverkehr trotzdem tut, dann eine Zeitlang an der Unfallstelle zu warten hat, ergibt sich ebenfalls aus demStGB . Vielen anderen Verhaltensweisen stehen keine Rechtsnormen entgegen: sie sind «erlaubt».
[3]
Eine Schwester der Modallogik, die statt mit dem Ausdruck «notwendig» mit «geboten» operiert und statt mit «möglich» mit «erlaubt», ist die deontische Logik.1 Bei aller Familienähnlichkeit empfindet man die Schwestern manchmal als höchst unterschiedlich. Werfen wir einen Blick auf das Standardsystem der deontischen Logik: Es ruht im Wesentlichen auf zwei Axiomen. Eines von ihnen lautet (das «O» darin spielt auf das Wort «obligatio» und seine Nachkommen in den europäischen Sprachen an):

O(A -> B) -> (OA -> OB)
Wenn es geboten ist, wenn man A tut, auch B zu tun, so ist es, wenn es geboten ist, A zu tun, auch geboten, B zu tun.
[4]
Während der Satz in symbolischer Schreibweise ästhetischen Charme hat, klingt er in natürlicher Sprache eher dunkel. Nehmen wir einmal an, es werde verlangt, dass jemand B tue. (Juristen sind gewohnt, stets von dem auszugehen, was verlangt wird.) Warum? Vielleicht hat er A getan, und – so sagt es das Axiom in seiner linken Hälfte –es ist geboten, wenn man A tut, auch B zu tun. Wie aber, wenn er A unterlassen hat? (Vielleicht hatte er das Gefühl, in dieser Welt werde ohnehin zu oft A getan und hinterher kommt man aus B nicht mehr heraus.) A zu unterlassen, hilft dem Verweigerer aber auch nicht, falls esgeboten ist, A zu tun; denn auch dann – so sagt das Axiom in seiner rechten Hälfte – soll man B tun, also auch ohne dass man A getan hätte. Seltsam. Glücklicherweise gibt es aber eine Erläuterung durch einen bekannten Logiker:2
[5]
Wenn es z.B. geboten ist, falls man die linke Fahrbahn einer Autobahnstrecke benutzt, schneller als 80 km/h zu fahren, so ist es geboten, schneller als 80 km/h zu fahren, sofern es geboten ist, die linke Fahrbahn zu benutzen.
[6]
Nun haben wir es konkreter: Wenn es geboten ist auf der linken Fahrbahn schneller als 80 km/h zu fahren, so ist es darüber hinaus geboten, schneller als 80 km/h zu fahren, wenn es geboten ist, auf der linken Fahrbahn zu fahren.
[7]
Kann das richtig sein? Man stelle sich vor, das Langsamfahren auf der linken Fahrbahn sei mit einer spezifischen Geldstrafe verknüpft. Sollte tatsächlich jemand wegen Fahrens mit weniger als 80 km/h bestraft werden, wenn er auf der rechten Fahrbahn geblieben ist und insofern keinen rechtlichen Grund zum Schnellfahren hatte? Dass manschneller als 80 km/h fahren soll , möchte man meinen, wird erst dann aktuell, wenn man die linke Fahrbahn benutzt, sietatsächlich benutzt, nicht bloß sie benutzensoll. Und wenn man auf der rechten Fahrbahn bleibt? Das ist in dem Standardsystem der deontischen Logik nicht vorgesehen! Oskar Becker, neben Georg Henrik von Wright einer der Schöpfer dieser Logik, schreibt: «Illegale Handlungen oder Unterlassungen sollen grundsätzlichnicht in den Kreis unserer Betrachtungen gezogen werden.»3 Doch so billig, mit dem Trumpf «Illegales zählt nicht!», sollte eine Normlogik nicht davonkommen.4 Vergleichen wir sie wieder einmal mit ihrer Schwester, der Modallogik. Dies ist das Axiom der Modallogik, das dem soeben erörterten der deontischen Logik entspricht (so wie das O auf «obligatio» hindeutet, so spielt hier das N auf «necessitas» und seine Verwandten an):

N(A => B) => (NA => NB)
Wenn notwendigerweise A zu B führt, so folgt daraus, dass wenn A notwendigerweise eintritt, auch B notwendigerweise eintritt.
[8]
Der symbolische Ausdruck und seine Übersetzung sind diesmal leicht verständlich und inhaltlich einleuchtend. Man stelle sich ein computergesteuertes Auto vor, das auf eine Teststrecke geschickt wird. Die Strecke teilt sich irgendwann in zwei Fahrbahnen, und der Wagen ist so programmiert, dass er sich dann für die linke entscheidet. Sobald er das tut, wird er programmgemäß schneller als mit 80 km/h fahren. Wie aber, wenn der Wagen trotz Programmierung auf der rechten Fahrbahn bleibt, mit welcher Geschwindigkeit auch immer? Dann reden wir nicht von «illegalem Verhalten», sondern suchen in Software und Hardware nach einem Fehler.
[9]
In Naturvorgängen glaubt man einen fugenlosen Kausalstrang wahrzunehmen, vom heranziehenden Tiefdruckgebiet bis zum nassen Dach, vom Starten des Autos bis zu seinem Verhalten bei der Teilung der Fahrbahnen. Handlungen dagegen nimmt man als abgegrenzt wahr, man sieht sie förmlich jedesmal neu aus Willensakten eines Subjekts hervorgehen, so dass man beispielsweise mehrere Handlungen unterscheidet, wenn ein Verkehrsunfall mit anschließender Fahrerflucht –hit and run - sich in einem Zug vollzieht. (Die herrschende Lehre im deutschen Strafrecht nimmt demgemäß Realkonkurrenz an.) Auch empfindet man enttäuschte Erwartungen unterschiedlich. Wenn es entgegen der Wettervorhersage heute nicht regnet, sondern den ganzen Tag über strahlend die Sonne scheint, dann sagt man sich, dass die meteorologischen Grundlagen der Prognose unzulänglich waren. Wenn dagegen jemand eine Fahrerflucht begeht, sieht man das in der Entscheidungsfreiheit eines Menschen begründet. Man hält den Fahrer für «schuldig» und möchte vermutlich, dass er bestraft werde.
[10]
Wir haben – in Modallogik und deontischer Logik – zwei Axiome von derselben Struktur. Doch unser Weltverständnis ist derart, dass wir einen erheblichen Unterschied spüren. («Weltverständnis», nicht «Weltbild»; denn der Unterschied steht einem nicht vor Augen, sondern man spürt ihn beim Sprechen oder Schreiben.) Doch in dieser scharfen Gegensätzlichkeit von Sein und Kausalität einerseits und Sollen und Freiheit andererseits wird der Unterschied wohl nicht mehr lange bestehen bleiben. Denn Computer und Roboter werden in ihren Entscheidungen immer «autonomer». Experimentelle Autos ohne Fahrer finden bereits selbstständig ihren Weg durch ausgedehnte Wüstenlandschaften. Die Vorstellung, dass sie, wenn sie A tun, auch notwendigerweise B tun werden und dass sie defekt sind, wenn sie es nicht tun, passt längst nicht mehr zu ihnen. Autonome Roboter können, wie menschliche Subjekte, mit dem Anschein der Ursachlosigkeit operieren, und ihre Handlungen nimmt man deshalb, wie die eines Menschen, als abgegrenzt wahr. Und man wird ihr Verhalten, wie das eines Menschen, bald unter dem Gesichtpunkt von Normen bewerten, also auch als Normwidrigkeit.
[11]
Autonome Roboter werden nicht programmiert, sondern trainiert. Ihre Schöpfer entwerfen für sie zunächst ein «neuronales Netz». Es besteht aus Ein- und Ausgängen, zwischen denen «hidden units» liegen. Die Units sind, wie Neuronen im Gehirn, durch «Synapsen» verbunden. Der Roboter wird zunächst auf typische Situationen angesetzt, mit denen er zu tun haben wird, und er wird trainiert, darauf in gewünschter Weise zu reagieren. Durch die Einübung verändert sich das Netz: manche Synapsen verstärken sich, andere schwächen sich ab. Der Roboter reagiert jetzt nicht nur auf Situationen, wie sie ihm vorgegeben wurden – das ließe auch durch Programmierung erreichen -, sondern möglichst sachgerecht auch auf solche, die jenen nur analog sind.5 Wie er reagiert, lässt sich aber im Einzelfall nicht voraussagen. Und wenn der Roboter in seiner Autonomie eine Fehlentscheidung trifft? Vielleicht mit fatalen Folgen? Damit muss man rechnen. Die Rechtsordnung braucht nun einen Zurechnungspunkt, um daran die Rechtsfolge des Schadensersatzes zu knüpfen. Ein Informatiker kommt dafür längst nicht immer in Betracht; er kann sich exkulpieren, wenn er bei der Herstellung des Roboters die «im Verkehr erforderliche Sorgfalt» beachtet hat. Bleibt also nur der Roboter selber. Der allerdings sollte versichert sein.6
[12]
Autonome Roboter werden von Normen geleitet, manchmal auch von ethischen Normen, – und es lässt sich nicht ausschließen, dass sie die Normen manchmal übertreten. Das ist nicht spekulativ, sondern höchst real. Das Pentagon gibt viele Milliarden Dollars für die Entwicklung von autonomen Kampfrobotern aus, die auch Moralnormen gehorchen sollen. «This is not 'Terminator'-style science fiction but grim reality.»7 Die Begründung dafür mag überraschen: Das Kampfgeschehen soll humaner werden. «It is not my belief that an unmanned system will be able to be perfectly ethical in the battlefield, but I am convinced that they can perform more ethically than human soldiers are capable of.»8 Ein Roboter gerät nicht in Blutrausch, kennt keinen Rachedurst, nimmt es hin, wenn er beschädigt wird, er leidet auch nicht unter posttraumatischen Störungen (ganz sicher bin ich mir dabei aber nicht) und er hinterlässt keine trauernden Angehörigen. Roboter haben die meistzitierte Tugend unserer Zeit: Sie sindcool .
[13]
Die Entwickler von Kampfrobotern wollen ihren Maschinen ausdrücklich den Unterschied zwischen gut und böse beibringen. Mir kommt dabei noch eine andere Bibelstelle in den Sinn (Apostelgesch. 5,9), die sich an die Menschheit richten könnte:Die Füße derer, die dich hinaustragen werden, stehen schon vor der Tür.



Lothar Philipps ist Professor emeritus für Strafrecht, Rechtsinformatik und Rechtsphilosophie an der Ludwig Maximilians Universität München.

loth@jura.uni-muenchen.de


  1. 1 Kant nennt das Gebotene manchmal: «praktisch notwendig» und das Erlaubte: «praktisch möglich».
  2. 2 Franz von Kutschera,Einführung in die Logik der Normen, Werte und Entscheidungen, Freiburg/München 1973 (Alber Kolleg Philosophie), S. 20 (T 1.2–3). Auch die Übersetzung des Axioms in die natürliche Sprache stammt von v. Kutschera.
  3. 3 Oskar Becker, Untersuchungen über den Modalkalkül, Meisenheim am Glan, 1952, S. 41.
  4. 4 Ein normlogisches System mit Venn-Diagrammen kann dagegen Illegales neben Legalem erfassen. So L. Philipps, Anschauliche Normlogik, in: Zeitschrift für Rechtsphilosophie, 2010 (im Druck).
  5. 5 Zur Leistungsfähigkeit eines einfachen neuronalen Netzes auf einem Gebiete, das von Strafrechtsdogmatikern als höchst komplex empfunden wird, vgl. L. Philipps, Tû-Tû 2. Von Rechtsbegriffen und neuronalen Netzen. In:

    Rechtsentstehung und Rechtskultur. Kolloquium zu Ehren von Heinrich Scholler, ed. L. Philipps und R. Wittmann , Heidelberg 1991, pp. 181–191.
  6. 6 Vgl. das Interview mit Klaus Schilling, inhttp://www.spiegel.de/wissenschaft/technik/0,1518,705961,00.html . Schilling gehört zu der Arbeitsgruppe «Robotik und Recht» an der Universität Würzburg. Vgl. auch die Dissertation von Andreas Matthias,Automaten als Träger von Rechten , 2. Auflage Berlin 2010 (Logos Verlag). Sanktionen gegen Roboter, etwa dass ihr neuronales Netz auf Neue trainiert wird, würde ich freilich nicht «Strafe» nennen. Dieser alte und problembeladene Begriff sollte nicht ohne Not auf ein ganz neues Gebiet erstreckt werden. Zum Problem der Strafe vgl. neuerdings R. Wittman: Der staatliche Strafanspruch und die neueren Ergebnisse der Hirnforschung, in: Joerden et al. (Hrsg.):Vergleichende Strafrechtswissenschaft , Frankf. Festschr. für A.J. Szwarc, Berlin 2009, S. 147–171.
  7. 7 So Colin Allen, von der Indiana University, Koautor vonMoral Maschines: Teaching Robots Right From Wrong , Oxford University Press 2008. Zitiert in der Internet-Ausgabe der britischen Zeitung Telegraph:http://www.telegraph.co.uk/news/worldnews/northamerica/usa/3536943/ .
  8. 8 So Ronald C. Arkin vom Georgia Tech. Er fügt dem hinzu: «For one thing, they can be designed without an instinct for self-preservation and, as a result, no tendency to lash out in fear. They can be built without anger or recklessness, and they can be made invulnerable to the psychological problem of ‘scenario fulfillment.’» Damit heben sich die ‚soldier bots’ vorteilhaft von ihren menschlichen Kameraden ab: «fewer than half of soldiers and marines serving in Iraq said that noncombatants should be treated with dignity and respect, and 17 percent said all civilians should be treated as insurgents. More than one-third said torture was acceptable under some conditions ... (2006 survey by the surgeon general of the Army)». Zitate aus der Internet-Ausgabe der New York Times:http://www.nytimes.com/2008/11/25/science/25robots.html?_r=1 Zu den zitierten Zeitungen führen Links aus dem ArtikelKampfroboter mit Moral , von Bernd Kling,http://www.heise.de/tp/r4/artikel/29/29297/1.html .