1.
Einleitung ^
Hajime Yoshino prägte den Begriff der Logischen Rechtslehre und fundiert ihn in einer Reihe von Vorträgen und Ausarbeitungen.1 Anders als andere Autoren2 blieb er aber mit seinem Konzept nicht nur auf einer theoretischen Betrachtungsebene stehen, sondern gab auch ein schönes Anwendungsbeispiel seiner Theorie in Form einer Unterrichtssoftware für Jurastudenten3. Mit Hilfe dieser Software ist es den Studenten möglich, Verträge bei Verzug oder Störung juristisch zu bewerten.
Die Rechtsgleichheit unterliegt auch einem ökonomischen Zwang und ist gefangen in der gesellschaftlich produzierten Komplexität. Eine institutionalisierte Komponente der Rechtsgleichheit sind Anwälte. Die Wahl der Anwälte zweier Konfliktparteien oder in einem Strafrechtsverfahren die Anwaltschaft des Beklagten suggeriert eine chancenäquivalente Gleichheit. Aufgrund der nur endlichen vielen Zeit, die ein Rechtsvertreter aufwenden kann – und damit ist auch die Zeit und die Qualität der «Informationsbeschaffung» und Datensichtung nur endlich – leidet diese Gleichheit und wird eine immer größere Konzentration von Anwälten in Großkanzleien fördern, bzw. forcieren, welche auch über die notwendigen Mittel verfügen, eine Analyseabteilung zu unterhalten. Eine maschinelle Unterstützung hierbei wäre nicht nur wünschenswert, sondern würde auch eine gewisse Unabhängigkeit garantieren. Für die Richterschaft wären solche Assistenzsysteme der Informationsbeschaffung und Auswertung eine hilfreiche Unterstützung und Zeitersparnis. Eine öffentliche Datenbank in Kombination mit den hier vorgestellten Verfahren wäre ein sinnvolles Open-Data-Projekt11 und würde Transparenz und Rechtsgleichheit, die an der Informationsasymmetrie so manches Mal scheitern, wieder mehr Geltung durch mehr pragmatische und praktische Rechtsinformatik verschaffen. Hier wird Rechtsinformatik als Garant der Informationssymmetrie gedacht.
Basierend auf dem Ansatz von Hajime Yoshino könnte man nun fragen: was kann die Maschine tun und, was könnte man die Maschine alleine tun lassen? Eine erste strukturelle Gliederung ist schon durch die Logische Rechtslehre geschehen. Geht man nun davon aus, dass eine gute strukturelle, eine sog. grammatische Beschreibung, hinreichend gut sein soll, um mehrere Logiken zu generieren, so erweitern wir den Ansatz von Yoshino, indem wir eine generierende Meta-Theorie aufsetzen. Diese Theorie soll aber nicht weitere Theorien produzieren, sondern Algorithmen. Eine weitere logische Theorie wäre einfach ein Sammelsurium von Axiomen oder Prämissen, aus denen man seine Logik stampfen kann. Solche Theorien sind nicht immer (beweistheoretisch) schnittfrei12 und schon gar nicht immer widerspruchsfrei oder logisch vollständig. Hier möchten wir diesem Dogma einen anderen Ansatz gegenüberstellen, indem wir davon ausgehen, dass eine Theorie auch Algorithmen produzieren oder spezifizieren kann. Eine Theorie in diesem Sinn kann so konstruiert werden, dass diese beweistheoretisch schnittfrei und besser handhabbar ist, da die sich daraus ergebenden Programme immer(!) terminieren. Ein terminierendes Programm ist eines, das in endlicher Zeit ein Ergebnis zurückgibt. Somit ermöglicht diese theoretische Zugangsweise einen besseren praktischen Nutzen.
In diesem Auftakts-Beitrag wird diese Erweiterung skizziert und in nachfolgenden Artikeln weiter vorgestellt werden. Dieser und die nachfolgenden Beiträge können als die Skizze einer Computable Legal Theory13 (Berechenbare Modelle der Rechtstheorie) betrachtet werden, deren Fokus auf Methoden und Konzepten liegt, welche die Digitalen Maschinen und den Teil der Jurisprudenz betreffen, der durch diese Maschinen real bearbeitet werden kann. Die CLT möchte sich somit von der allgemein gehaltenen Disziplin KI und Recht durch den Fokus auf die Maschine abgrenzen. Diese methodologische oder wissenschaftstheoretische Umorientierung kann nicht nur als erkenntnistheoretischer Spiegel für die Jurisprudenz dienen, sondern auch die Rechtsinformatik aus der Nische der reinen Datenbankschau befreien. Diese Trennung von Science und Science-Fiction in der KI und Rechts-Disziplin kann somit ökonomische Impulse für Softwareprodukte und Assistenzsysteme bedeuten. Das Recht würde somit auch für die Softwarebranche und Dienstleister ökonomisch interessanter und nicht nur für das Verlagswesen.
2.
Worum geht es im Wesentlichen in der Computable Legal Theory (berechenbarkeitsorientierten Rechtfertigungstheorie)? ^
Die Computable Legal Theory – die berechenbarkeitsorientierte Rechtstheorie und somit nach Arthur Kaufmann, welcher die Rechtstheorie mit der Rechtsphilosophie gleichsetzt, die Philosophy of Computable Jurisprudence, welche die Maschine in mehrfacher Hinsicht als integralen und unterstützenden Adepten der Jurisprudenz ansieht – kann auf zweierlei Arten betrieben werden. Ein Zugang ist die Computable Justification Theory (Berechenbarkeitsorientierte Rechtfertigungstheorie). Ein weiterer Zugang ist über einen strikt datentypenlogischen Rahmen möglich, aus welchem heraus Berechenbarkeitsmodelle und basierend auf diesen wiederum beliebige formale und computergeignete Rechtssprachen generiert werden können. Diese formalen Rechtssprachen sind problem- und bereichsbezogene Programmiersprachen, die aus diesem Rahmen generiert werden können. Dieser Zugang ist nicht neu. In der Logik ist er als Modelltheorie bekannt. Doch anders als in der Modelltheorie, die ihren Schwerpunkt auf die logische Semantik legt, folgt die datentypbasierte Logik einem rein syntaktischen Ansatz und somit nur einer logischen Minimalsemantik, die sich in keiner Logik vermeiden lässt. Die anderen Inhalte der datentypbasierten Logik sind ausschließlich auf die (juristische) Situation und den in diesem Zusammenhang stehenden formalisierbaren Kontext ausgerichtet.
2.1.
Das Hauptanliegen dieses Projekts ^
2.2.
Maschinelles Lernen schriftlicher juristischer Rechtfertigung und universelle juristische berechenbarkeitsorientierte Rechtfertigungsstruktur ^
Würde unsere Bewertungsstruktur m verteilte Einschränkungen haben, mit denen wir diesen Raum einschränken könnten, so könnten wir diese variierend anwenden und würden durch diese Einschränkungen permutieren. Wir würden auf ein sehr starkes Anwachsen kommen (m! — gelesen m Fakultät). Dahinter verbirgt sich eine lange Multiplikation, so bedeutet 5! = 1 * 2 * 3 * 4 * 5 = 120. Solche Einschränkungen kann man sich vorstellen als Abwägungen, ab wann man welchen Parameter und mit welchem Wert und ggf. in welcher Kombination anwendet. Mit diesem Beispiel sollte unterstrichen werden, dass eine solche vorgefertigte Sicht auf eine Problemstellung in einem kombinatorischen Albtraum enden wird. Unsere Konzeption möchte auf diese vorgefertigte Parametrisierung verzichten.
2.3.
Grundzüge der berechenbarkeitsorientierten Rechtfertigungstheorie ^
- Was haben alle schriftlichen Urteilsbegründungen (= Rechtfertigung im weitesten Sinne, engl. justification) gemeinsam? Eine spezifische Bildungsstruktur, d.h. gewisse Einschränkungen in der Bildungsstruktur – der Art und Weise wie diese Strukturierung erfolgt.
- Worin unterscheiden sich diese Rechtfertigungen? Nur darin wie diese Einschränkungen priorisiert werden.
- Die rechtfertigungsspezifische und für eine Urteilsausfertigung getroffene Einschränkung der Prioritäten sind charakterisiert durch ein Ranking der besseren Erklärungsstruktur. Dadurch wird eine (bewertete) Hierarchie der Strukturen für ein ausgewertetes Dokument aufgebaut.
- Die Struktur oder Grammatik der Rechtfertigung, d.h. in diesem Kontext ihre bewertete Hierarchie der Einschränkungen (siehe Punkt 3), ist ein Bewertungsverfahren der strukturellen Beschreibungen und weist nicht numerische(!) Balancierungswerte zu. Daraus ergibt sich die Ordnung der Einschränkungen. Und aus dieser wiederum die Ordnung der möglichen Strukturen, die auf ein gegebenes Dokument mit juristischer Rechtfertigung passen. Durch diese Strukturierung und Ordnung der möglichen Rechtfertigungsstrukturen ist es möglich, minimale und maximale Struktur für eine juristische Rechtfertigung zu finden.
- Diese grammatikalische Form, d.h. die Struktur der Rechtfertigung, ist die unter diesen Umständen und Optionen optimale. Damit ist gemeint, dass sie die maximal ausbalancierte Wahl unter den gegebenen Möglichkeiten ist.
Rainhard Bengez ist derzeit Gastprofessor an der «National University of Taipe» und unterrichtet ausserdem an der TU München. Seine Fächer sind Mathematik (Logik, Stochastik und das Modellieren von gesellschaftlichen Phänomenen) sowie (juristische und soziale) Philosophie. Er hat zwei Doktortitel erworben und war bis 2008 Professor der Mathematik in Astrakhan.
Rainhard Bengez is actually a visiting professor at the National University of Taipei and is teaching at TU München as well. His subjects are mathematics (logic, stochastic, and modeling of social phenomena) and (legal and social) philosophy. He holds two PhD’s and was till 2008 prof. of mathematics in Astrakhan.
Ich möchte mich bei Hajime Yoshino, Tokio, Friedrich Lachmayer, Innsbruck und Wien sowie Matthias Armgardt, Konstanz und bei dem DFG-Projekt JurisLog für die Förderung, Hilfestellungen und Diskussionen bedanken. Mein Dank gilt ferner Lothar Philipps, München und Erich Schweighofer, Wien für ihre hilfreichen Korrekturen und Kommentare.
- 1 Zuletzt präsentierte er dieses Konzept im November 2012 in München auf einem Festkolloquium zu Ehren von Roland Wittmann. Der ausgearbeitete Vortrag wird in einer Publikation, herausgegeben von Bernd Schünemann, Lothar Philipps und Rainhard Bengez, im laufenden Jahr im Springer Verlag erscheinen. Ältere Arbeiten zu diesem Themenkreis sind u.a.: Yoshino, Hajime: Zur Anwendbarkeit der Regeln der Logik auf Rechtsnormen, in: Die Reine Rechtslehre in wissenschaftlicher Diskussion, Manz 1982, S. 142 – 164. Oder, Tractatus Logico-Juridicus – Its Basis, in: Auf dem Weg zu einer Idee der Gerechtigkeit: Gedenkschrift für Ilmar Tammelo, hg. von Jakob, Raimund et al., LIT Wien 2009, 127 – 148. Zudem findet sich unter dem folgenden Link eine Online-Präsentation: http://www.docstoc.com/docs/74342360/From-Pure-Theory-of-Law-to-Logical-Jurisprudence bzw. hier: http://www.legalvisualization.com/download.php?hash=7f9c1b29ae4653f31676b92e1e1ee8d3?fname=20070703_Tokyo_Keio_University%2C_Hajime_Yoshinos_Logical_Jurisprudence.pdf
- 2 Hierbei sind die hauptsächlich die Vielzahl der Autoren und Projekte gemeint, die in der Zeitschrift AI and Law, welche im Springer Verlag erscheint und herausgegeben wird von Kevin Ashley, Trevor Bench-Capon und Giovanni Sartor. Eine praktische Alternative hierzu stellt das Journal Law, Probability, and Risk dar, das von der Oxford University Press verlegt und von Joseph L. Gastwirth herausgegeben wird. In ihr erscheinen auch mehr empirisch fundierte und praktisch konzeptionelle Arbeiten.
- 3 Beispielsweise Yoshinos Creative Legal Mind Project
- 4 Wolfgang Stegmüller, ein Innsbrucker Mathematiker und Philosoph, der lange Zeit in München die Wissenschaftstheorie geprägt hat, war ein Vertreter der strukturalistischen Schule, welche von der Interpretation ausgeht, dass Prädikatenlogik und Mengentheorie äquivalent sind. Ferner ist diese Schule von der ontischen Ansicht geleitet, dass sich die Verbindungen der wesentlichen Objekte eines Theorie- oder Erklärungsgebäudes und ihre Relationen durch die Sprache der Mengenlehre ausdrücken lassen. Als Blaupause für diese Weltsicht dient die Physik. Allen voran die klassische Mechanik, die sich als Hamilton-System formschön mathematisch ausdrücken lässt. In der Physik versucht man nun auch die statistische Physik auf die Mechanik zurückzuführen. Andere Theorien wie die Quantenphysik und die Relativitätstheorie versucht man ähnlich strukturell zu fassen. Mit diesem Leitmotiv versucht die (strukturalistische) Wissenschaftstheorie auch die anderen Wissenschaften methodologisch zu fassen.
- 5 Nikolas Bourbaki, das wohlbekannte Pseudonym französische Mathematikerkollektiv, das für die reine formale Algebraisierung einer Theorie steht, ohne einen Gedanken an die Visualisierung zu verschwenden steht hier als Leitbild für die universelle Auffassung der Prädikatenlogik (erster Stufe), die sich überwiegend von französischen Logikern vertreten wird. Ein formales Beispiel hierzu ist die sog. kombinatorische Logik. Das ist eine strikte Logik, die von Moses Schönfinkel und Haskell Brooks Curry eingeführt wurde und sich an dem Lambda-Kalkül anlehnt. Dieser Ansatz versucht die Verwendung von Variablen zu vermeiden. Insbesondere in der theoretischen Informatik wird dieses Konzept bei der Erstellung von funktionalen Programmiersprachen eingesetzt. Funktionale Programmiersprachen kann man sich als Listen vorstellen, mit denen man rekursiv arbeitet. Der Vorteil der funktionalen Programmiersprachen liegt in ihrer guten Handhabbarkeit bei der Formulierung von Problemen. Der Nachteil besteht in dem enormen Speicherverbrauch und in ihrer schwächeren Performanz.
- 6 Gottlob Frege gilt als einer der Gründerväter der analytischen Philosophie und Initiator der modernen Prädikatenlogik. Er vertrat die Ansicht, dass die gesamte Mathematik in und durch Logik ausgedrückt und bewiesen werden kann. Eine Idee, die sich durch ihn inspiriert im Grundlagenprogramm von David Hilbert fand, aber durch Russell und zu guter Letzt durch Gödel und seine Unvollständigkeitssätze zunichte gemacht wurden.
- 7 Ist der Vater der Phänomenologie. Eine seiner prominentesten Schülerinnen war Edith Stein. Mit der Phänomenologie versuchte Husserl die Philosophie streng wissenschaftlich zu begründen. Er durchbrach damit die Ansicht, dass Logik die rein psychologische Ansicht der Dinge ist und somit nicht objektiv – besser wäre wohl intersubjektiv – fassbar. Objektivität war für ihn somit prinzipiell erreichbar.
- 8 Diese Autoren beschäftigten sich zuletzt ausgiebig mit der juristischen (rationalen) Argumentation und hier insbesondere mit dem Story-Telling. Rui Soares Pereira kritisierte dieses Vorgehen zuletzt ausgiebig in zwei Arbeiten, die in dem Sammelband Rechtsentstehung und Wertsetzung, hg. Von Schünemann, Philipps und Bengez, Springer 2013 und in dem Sammelband Von der Spezifikation zum Schuss, hg. Von Philipps und Bengez, Nomos 2013.
- 9 Prakken und Sartor beschäftigten sich in den 1990er Jahren intensiv mit dem nichtmonotonen Schließen im juristischen Kontext und später mit Rechtsontologien. Beide Forschungsprojekte haben einen gewissen formalen Reiz, konnten aber nie wirklich (vielleicht wegen der Maschinenferne) zu einer pragmatischen Umsetzung führen.
- 10 Berechenbarkeit bedeutet, dass ein Algorithmus in ein Programm übersetzt werden kann und wenn das Programm durch eine Maschine ausgeführt wird, es in endlicher Zeit ein Resultat zurückgibt. Ist nun alles berechenbar? Nein. Und das ist auch ein kapitaler Fehler in der KI und Recht. Hier wird der englische Ausdruck computation anstelle von computable verwendet. Doch nicht alles was computional ist computable, d.h. berechenbar. Ein Beispiel hierzu ist die Ackermannfunktion. Hierbei handelt es sich um eine sehr, sehr schnell wachsende Funktion. Für diese Funktion gibt es zwar eine Rechenvorschrift, d.h. sie ist computational, aber es gibt keine Maschine, die diese berechnen kann. Aus diesem Grund ist die Ackermannfunktion nicht(!) berechenbar, d.h. nicht computable.
- 11 Ehre, wem Ehre gebührt. Der Vorschlag eine öffentliche Datenbank mit mathematischem Know-how auch und besonders für Laien zur Verfügung zu stellen, stammt von Joseph L. Gastwirth, George Washington University, Washington, D.C., VA. Den Vorschlag unterbreitete er dem Autor im April 2013, als dieser ein statistisch-stochastisches Verfahren vorstellte, Urteile aus einer Datenbank auszulesen und fortlaufend nach Relevanz zu einem gegebenen Fall zu gruppieren.
- 12 Für eine Logik braucht man drei Sachen: eine Sprache, die ausdrückt worüber man sprechen möchte, eine Bewertung, mit deren Hilfe man die Minimalsemantik in die Struktur hineinbringt (meist ist es das zweiwertige Wahr-Falsch-Schema) und zu guter Letzt eine Hilfsmittel mit dem man Belegen kann, d.h. mit dem man (formale) Beweise führen kann. Eine gegeben Logik ist eine Art Grammatik die man selbst bewerten kann. Diese Grammatik kann widerspruchsfrei sein, wenn es keine zwei unterschiedlichen Bewertungen einer Aussage zulässt; sie kann vollständig sein, d.h. alles was als gültig angesehen wird muss sich aus dem logischen System ableiten lassen. Das war und ist die überwiegend semantische Sicht auf eine logische Theorie. Blickt man auf dieselbe Theorie syntaktisch, d.h. mit dem Fokus auf die Zeichen und die Zeichensetzung, dann kommt der Struktur (Redundanz, etc.) große Bedeutung zu. Schnittregeln kann man sich nun als strukturellen modus ponens vorstellen.
-
13
Am angemessensten (im Sprachgebrauch der Logik) würde sich dieser Ausdruck als Berechenbare Modelle der juristischen Begründungs- und Rechtfertigungslehre übersetzen lassen. Allerdings suggeriert diese Übersetzung vielleicht mehr, als solch eine Theorie zu leisten im Stande ist. Letztlich geht es nur darum die Frage zu klären, was von einer Maschine gefunden werden kann und wie man die Maschine auf diese Aufgabe algorithmisch ausrichtet. Dieser Ansatz ist ein Querschnitt durch die Rechtstheorie, die bereichert wird und die Rechtsphilosophie, resp. Rechtstheorie, die Rechtslogik und die Methodenlehre. Von Seiten der Informatik oder mathematischen Logik kommen das Denken in Datenstrukturen, Algorithmen und das Theorienkorsett der sog. mathematischen Beweistheorie hinzu. Die Beweistheorie untersucht die syntaktischen Strukturen mathematischer Begründungen und ist sehr maschinenaffin. Die zu ihr äquivalente logische Modelltheorie umschreibt Problemkreise in dem sie Phänomene und Objekte (axiomatisch) definiert. Beide Ansätze sind theoretisch (und das kann man beweisen) äquivalent. Die Modelltheorie ist beliebter und hat mächtigere Einsichten zu Tage gefördert. Die mehr auf das Zeichen fixierte Beweistheorie ist schwerer zugänglich. Das ist wohl ein Grund dafür, dass sie weniger theoretisch gewichtige Theoreme aufzuweisen hat als die semantische Modeltheorie. Die hier vorgestellten Theorien wollen aufzeigen, wie fruchtbar dieser Querschnittsansatz für die Rechtsinformatik und die juristische Methodologie sein kann.
- 14 DuD – Datenschutz und Datensicherheit, Springer Verlag; der Beitrag Schlüsselkonzept der Suchmaschinen erscheint im Juni 2013 in einer Sonderausgabe, die von Marie-Theres Tinnefeld herausgegeben wird.
- 15 Da es sich bei diesem ersten Artikel um eine Einleitung handelt und der Datenbegriff in dem nachfolgenden Artikel vertiefend diskutiert und von der Information abgegrenzt wird, werden wir dort auch Literaturhinweise geben. Beispielsweise die Arbeiten von Luciano Floridi aus England, der sich mit einer eigenwilligen Interpretation des Informationsbegriffs (unter www.philosophofinformation.net) als Informationsphilosoph jenseits der Technik einen Namen gemacht hat. Er ist unteranderem Autor der im Oxford University Press Verlag erschienen Bücher: Information a very short introduction, 2010 und sein zweibändiges Hauptwerk: Philosophy of Information, 2012. Auch Lothar Philipps hat mehrere sehr lesenswerte Arbeiten zum Thema Recht und Information verfasst, auf die wir in dem nachfolgenden Artikel eingehen werden. Eine Arbeit (die älteste mir bekannte) hierzu ist: Recht und Information, in Rechtstheorie, hg. von Kaufmann, Arthur, Müller Verlag Karlsruhe 1971, 125 – 134. Eine andere neure Arbeit beschäftigt sich mit Bar Hillel und ist u.a. in einer Version in den Archiven der Rechts- und Sozialphilosophie erschienen.