Jusletter IT

Gedanken zu einer Erweiterung der Logischen Rechtslehre zu einer Computable Legal Justification Theory

  • Author: Rainhard Z. Bengez
  • Category: Articles
  • Region: Germany
  • Field of law: Legal Informatics, AI & Law
  • Citation: Rainhard Z. Bengez, Gedanken zu einer Erweiterung der Logischen Rechtslehre zu einer Computable Legal Justification Theory, in: Jusletter IT 15 May 2013
This work aims at the introduction and first motivation of a computable legal justification theory evaluating written legal justifications. This theory is part of the more general computable legal theory fostering the development of practical algorithms. Computable legal theory is an approach to overcome nowadays legal informatics role as a mere data warehouse or data mart respectively.

Inhaltsverzeichnis

  • 1. Einleitung
  • 2. Worum geht es im Wesentlichen in der Computable Legal Theory (berechenbarkeitsorientierten Rechtfertigungstheorie)?
  • 2.1. Das Hauptanliegen dieses Projekts
  • 2.2. Maschinelles Lernen schriftlicher juristischer Rechtfertigung und universelle juristische berechenbarkeitsorientierte Rechtfertigungsstruktur
  • 2.3. Grundzüge der berechenbarkeitsorientierten Rechtfertigungstheorie

1.

Einleitung ^

[1]

Hajime Yoshino prägte den Begriff der Logischen Rechtslehre und fundiert ihn in einer Reihe von Vorträgen und Ausarbeitungen.1 Anders als andere Autoren2 blieb er aber mit seinem Konzept nicht nur auf einer theoretischen Betrachtungsebene stehen, sondern gab auch ein schönes Anwendungsbeispiel seiner Theorie in Form einer Unterrichtssoftware für Jurastudenten3. Mit Hilfe dieser Software ist es den Studenten möglich, Verträge bei Verzug oder Störung juristisch zu bewerten.

[2]
Mit seinem Konzept steht Hajime Yoshino in der wissenschaftstheoretischen Tradition von Stegmüller4 und seiner strukturalistischen Schule. Mit seiner Auffassung von der Alleinstellung und Universalität der Prädikatenlogik kann man ihn der französischen Logikschule5 zurechnen. Seine logizistische Auffassung von Recht und dem, was implizit in den Strukturen der Normen festgeschrieben ist, lassen ihn einerseits als einen impliziten Vertreter der streng analytischen Begriffslogik erscheinen, der die Bewertung der Rechtsnormen im Sinne einer Wertungsjurisprudenz anerkennt, diese aber analytisch in den Begriffen verortet und weniger als endogene oder synthetische Leistung eines Rechtsanwenders.
[3]
Hajime Yoshino beschreibt die von ihm geschaffene Logische Rechtslehre selbst als ein Analyseinstrument, mit dessen Hilfe die jeweiligen Sprachen des Rechts logisch untersucht und die Strukturen des juristischen Denkens offengelegt werden. Hiermit aber gibt er zu erkennen, dass er sich mit Frege6 und wohl auch noch mit Edmund Husserl7 und seiner anti-psychologischen Logikansicht verbunden sieht. Vergleicht man das mit anderen Ansätzen in der Forschungsrichtung KI und Recht wie beispielsweise mit Douglas Walton, Floris Brex, Henry Prakken8 oder Giovanni Sartor9, um nur einige zu nennen, so erkennt man, dass ein Großteil der juristisch geprägten KI-Forschung noch sehr dem Psychologismus verhaftet ist. Dieser Ansatz ist meiner Ansicht nach ein wenig zu eng, lässt er doch die Vielzahl der Möglichkeiten einer Maschine außer Acht, die unabhängig von einer Imitation humaner Gebärden im Prozess des Rechtsgeschehens hilfreich und assistierend eingesetzt werden können. Und genau darum soll es in der folgenden Darstellung und Ausarbeitung gehen: eine maschinen-zentrierte Perspektive auf das Recht.
[4]
Warum ist gerade ein solcher Bottom-up-Ansatz notwendig oder hilfreich? Suggeriert er nicht vielmehr, dass das Recht und alle mit ihm in Verbindung stehenden Prozesse berechenbar10 sind? Die Notwendigkeit ergibt sich aus zwei Gründen, der Rechtsgleichheit und der methodologischen Erkenntnis wegen. Mindestens diese letzte Begründung ist hinreichend genug, die Grenzen des maschinell Machbaren in der Sphäre der Jurisprudenz aufzuzeigen. Kurz gesagt, nur die analytisch-rekursiven Anteile der Jurisprudenz und verwandter Tätigkeiten sind maschinell bearbeitbar. Doch diese können schon heute mit teilweise semi-autonomen Entscheidungsprogrammen einer Maschine delegiert werden. Somit stehen den juristischen Entscheidern theoretisch mächtige Hilfswerkzeuge oder Assistenzen zur Verfügung, über die wir sprechen müssen und die wir auch schnellstmöglich umsetzen sollten, um weiterhin Rechtsgleichheit auf der Ebene der professionellen Hilfe garantieren zu können. Insofern wäre es wünschenswert, wenn es mehr KI und Recht-Denkansätze geben würde, die nicht in ihrer vermeintlich theoretischen Vagheit gefangen sind.
[5]

Die Rechtsgleichheit unterliegt auch einem ökonomischen Zwang und ist gefangen in der gesellschaftlich produzierten Komplexität. Eine institutionalisierte Komponente der Rechtsgleichheit sind Anwälte. Die Wahl der Anwälte zweier Konfliktparteien oder in einem Strafrechtsverfahren die Anwaltschaft des Beklagten suggeriert eine chancenäquivalente Gleichheit. Aufgrund der nur endlichen vielen Zeit, die ein Rechtsvertreter aufwenden kann – und damit ist auch die Zeit und die Qualität der «Informationsbeschaffung» und Datensichtung nur endlich – leidet diese Gleichheit und wird eine immer größere Konzentration von Anwälten in Großkanzleien fördern, bzw. forcieren, welche auch über die notwendigen Mittel verfügen, eine Analyseabteilung zu unterhalten. Eine maschinelle Unterstützung hierbei wäre nicht nur wünschenswert, sondern würde auch eine gewisse Unabhängigkeit garantieren. Für die Richterschaft wären solche Assistenzsysteme der Informationsbeschaffung und Auswertung eine hilfreiche Unterstützung und Zeitersparnis. Eine öffentliche Datenbank in Kombination mit den hier vorgestellten Verfahren wäre ein sinnvolles Open-Data-Projekt11 und würde Transparenz und Rechtsgleichheit, die an der Informationsasymmetrie so manches Mal scheitern, wieder mehr Geltung durch mehr pragmatische und praktische Rechtsinformatik verschaffen. Hier wird Rechtsinformatik als Garant der Informationssymmetrie gedacht.

[6]
Wie kann hierbei nun eine Erweiterung von Hajime Yoshinos Konzept hilfreich sein? Die Logische Rechtslehre geht von einem allgemeinen Konzept dessen aus, was und wie etwas in Normen festgelegt worden ist. Es ist ein struktureller Ansatz, der dem von Kelsen nahe kommt, ihn wohl als Vorbild gesehen hat und in Teilen umstrukturierte. Ein Basisansatz war und ist die Definition von Partikeln oder analytischen (logischen) Atomen in der Normgenese und Fixierung. Seine Idee führt zwangsweise über die Prädikatenlogik erster Stufe zu einer Implementierung von Teilen seines Konzepts in der Sprache Prolog. Kritisch sei hier nur anzumerken, dass nach Ansicht des Autors für die Logische Rechtslehre die Aussagenlogik ausreichend wäre. In diesem Punkt divergieren die Ansichten zwischen Hajime Yoshino und dem Autor – zumindest gegenwärtig. Nehmen wir diesen methodologischen Schritt von der Jurisprudenz über die Logische Rechtslehre auf die Maschine ernst, dann fordern wir eine theoretische Rechtsinformatik, die sich konzeptionell von der reinen Datenbankschau löst. Daraus sollten sich Impulse für Anwendungen ergeben, die mehr zu bieten haben als Podcasts für Juristen oder Wikis und die über reinen Datenbankanwendungen wie Juris oder LexisNexis hinausgehen oder diese konzeptionell erweitert. Praktische (juristische) Informatikanwendungen mit Bezug zur Logik sind rar. Dem Autor ist nur noch Verne Walker aus New York bekannt, der mittels Aussagenlogik und Falldatenbank juristische Fallauswertungen betreibt. All die anderen KI- und Rechtsansätze bleiben im Theorie-Gewirr und vage. Theoretische Rechtsinformatik sollte dann u.a. Konzepte bereitstellen, die es ermöglicht, brauchbare Anwendungen und relevante Algorithmen für das juristische Alltagsgeschäft zu konzeptionieren.
[7]

Basierend auf dem Ansatz von Hajime Yoshino könnte man nun fragen: was kann die Maschine tun und, was könnte man die Maschine alleine tun lassen? Eine erste strukturelle Gliederung ist schon durch die Logische Rechtslehre geschehen. Geht man nun davon aus, dass eine gute strukturelle, eine sog. grammatische Beschreibung, hinreichend gut sein soll, um mehrere Logiken zu generieren, so erweitern wir den Ansatz von Yoshino, indem wir eine generierende Meta-Theorie aufsetzen. Diese Theorie soll aber nicht weitere Theorien produzieren, sondern Algorithmen. Eine weitere logische Theorie wäre einfach ein Sammelsurium von Axiomen oder Prämissen, aus denen man seine Logik stampfen kann. Solche Theorien sind nicht immer (beweistheoretisch) schnittfrei12 und schon gar nicht immer widerspruchsfrei oder logisch vollständig. Hier möchten wir diesem Dogma einen anderen Ansatz gegenüberstellen, indem wir davon ausgehen, dass eine Theorie auch Algorithmen produzieren oder spezifizieren kann. Eine Theorie in diesem Sinn kann so konstruiert werden, dass diese beweistheoretisch schnittfrei und besser handhabbar ist, da die sich daraus ergebenden Programme immer(!) terminieren. Ein terminierendes Programm ist eines, das in endlicher Zeit ein Ergebnis zurückgibt. Somit ermöglicht diese theoretische Zugangsweise einen besseren praktischen Nutzen.

[8]
So gesehen ermöglicht unsere Erweiterung, dass wir all das, was Yoshinos Konzept ermöglicht, als Spezialfall generieren können. Die Leiter – in einem Sinne von Wittgenstein – war die Logische Rechtslehre, über die wir zu dieser Theorie gekommen sind. Den Abschluss bildet die Rückkehr zu dieser Theorie als Weg nutzbringende Algorithmen für die Rechtsinformatik zu erstellen.
[9]

In diesem Auftakts-Beitrag wird diese Erweiterung skizziert und in nachfolgenden Artikeln weiter vorgestellt werden. Dieser und die nachfolgenden Beiträge können als die Skizze einer Computable Legal Theory13 (Berechenbare Modelle der Rechtstheorie) betrachtet werden, deren Fokus auf Methoden und Konzepten liegt, welche die Digitalen Maschinen und den Teil der Jurisprudenz betreffen, der durch diese Maschinen real bearbeitet werden kann. Die CLT möchte sich somit von der allgemein gehaltenen Disziplin KI und Recht durch den Fokus auf die Maschine abgrenzen. Diese methodologische oder wissenschaftstheoretische Umorientierung kann nicht nur als erkenntnistheoretischer Spiegel für die Jurisprudenz dienen, sondern auch die Rechtsinformatik aus der Nische der reinen Datenbankschau befreien. Diese Trennung von Science und Science-Fiction in der KI und Rechts-Disziplin kann somit ökonomische Impulse für Softwareprodukte und Assistenzsysteme bedeuten. Das Recht würde somit auch für die Softwarebranche und Dienstleister ökonomisch interessanter und nicht nur für das Verlagswesen.

2.

Worum geht es im Wesentlichen in der Computable Legal Theory (berechenbarkeitsorientierten Rechtfertigungstheorie)? ^

[10]

Die Computable Legal Theory – die berechenbarkeitsorientierte Rechtstheorie und somit nach Arthur Kaufmann, welcher die Rechtstheorie mit der Rechtsphilosophie gleichsetzt, die Philosophy of Computable Jurisprudence, welche die Maschine in mehrfacher Hinsicht als integralen und unterstützenden Adepten der Jurisprudenz ansieht – kann auf zweierlei Arten betrieben werden. Ein Zugang ist die Computable Justification Theory (Berechenbarkeitsorientierte Rechtfertigungstheorie). Ein weiterer Zugang ist über einen strikt datentypenlogischen Rahmen möglich, aus welchem heraus Berechenbarkeitsmodelle und basierend auf diesen wiederum beliebige formale und computergeignete Rechtssprachen generiert werden können. Diese formalen Rechtssprachen sind problem- und bereichsbezogene Programmiersprachen, die aus diesem Rahmen generiert werden können. Dieser Zugang ist nicht neu. In der Logik ist er als Modelltheorie bekannt. Doch anders als in der Modelltheorie, die ihren Schwerpunkt auf die logische Semantik legt, folgt die datentypbasierte Logik einem rein syntaktischen Ansatz und somit nur einer logischen Minimalsemantik, die sich in keiner Logik vermeiden lässt. Die anderen Inhalte der datentypbasierten Logik sind ausschließlich auf die (juristische) Situation und den in diesem Zusammenhang stehenden formalisierbaren Kontext ausgerichtet.

[11]
Der andere Zugang, die Rechtfertigungstheorie (CJT), und um den wird es hier primär gehen, ist der strukturellen Semantik verhaftet. Dieser Zugang ist die strukturell-semantische berechenbarkeitsorientiere Rechtfertigungstheorie. Die Brücke zwischen beiden bildet der primäre Fokus auf ein Datenkonzept bzw. einen Datenbegriff wie er von dem Autor in einem Beitrag zur DuD14 skizziert wurde. Wichtig hierbei ist, dass sich der Begriff des Datums und der des Faktums von dem des Signals und der Information sowie des Wissens unterscheiden. Auf diese Unterscheidung wird in einem nachfolgenden Beitrag detaillierter eingegangen werden. Kurz gesagt, der Begriff der Information ist überstrapaziert und wird oftmals fälschlicherweise mit dem des Datums oder dem des Signals gleichgesetzt. In Bezug auf das Wissen lässt sich sagen, dass hier auch ein allgemeiner Irrtum die Runde macht. Wenn wir oftmals in der Presse vernehmen, dass das Wissen exponentiell wächst, d.h. es sich jedes Jahr verdoppelt, so sind damit die publizierten Arbeiten gemeint. Diese Arbeiten stellen ein Datum (das Gegebene) dar – etwas, das man vorfindet, wenn man die Arbeit als Außenstehender liest, sie sind immer ein Faktum (das Geschaffene, das Gemachte), etwas, das gemacht wurde, wenn man weiß, dass es sich hierbei um eine Erfindung handelt. Ein Faktum sind auch Fingerabdrücke, die an einem Tatort nicht mehr vorhanden sind, weil sie entfernt wurden. Ein Datum, das nicht von einem Menschen absichtlich, d.h. intentional gemacht wurde, ist in der Regel die Körpertemperatur bzw. auch die kosmische Hintergrundstrahlung. All das sind Daten, aber keine Fakten. Eine Information setzt immer eine Interpretation eines Datums durch einen Menschen bzw. durch einen zur Interpretation befähigten Akteur (wie eine semi-autonome Maschine) voraus. Dieser Interpreter benötigt für seine Interpretation die Daten und eine Datenbank, d.h. eine Liste von Vergleichsgrößen, mit denen er die neu ankommenden Daten abgleicht. Information ist immer eine relative Interpretationsgröße. Es macht somit keinen Sinn von der Information zu sprechen, wenn nicht der relative Bezugsrahmen angegeben wird. Ähnliches kennen wir aus der Prozent- oder Zinsrechnung, wenn bei einem vermeintlichen Wachstum nicht die Basis und die zum Vergleich notwendigen absoluten Zahlen angegeben werden. In der Maschine selbst gibt es keine Information, sondern lediglich Signale. Damit Daten durch eine Maschine verarbeitet werden können, müssen diese in Signale umgewandelt werden. Der Datenstrom, den eine Maschine durchläuft, ist ein Signalstrom. Innerhalb dieses Stromes müssen nun Einheiten (strenggenommen in einem Sinn, der dem der Monade von Leibniz nahe steht), identifiziert werden. Diese Strukturen werden auf der Datenebene als Datentypen bezeichnet. Auf der Signal-Ebene gibt es dafür keinen adäquaten Ausdruck für Segmente eines Signalstromes. Am besten wäre es von einem Code zu sprechen, doch auch dieser Begriff ist nicht trennscharf. Wenn man das Konzept des Datentyps ernst nimmt, dann würde sich für die Signalebene das Konzept der Rekursion oder des Musters anbieten. Ein Datentyp bedeutet, dass sich gewisse Teilabschnitte eines Signalstroms wiederholen. Vorstellen kann man es sich, dass man in einer Kette von Zeichen (ABABABABABBBBBABBABAHAHBAHBAHAB) das Muster «AH» versucht zu finden. Das Signalmuster «AH» könnte mit dem Datentyp «Zahl» assoziiert sein. Nehmen wir diese Konzepte ernst, so erkennen wir, dass Wissen immer eine Bewertung und Interpretation sowie einen Abgleich voraussetzt und es immer gebunden an einen individuellen Akteur ist, der kraft seiner Interpretation Daten, resp. Fakten als Information (d.h. informativ) bewerten kann oder nicht. Zu beachten ist, dass neue Informationen auch schädlich sein können, da der Zusatz «neu» nichts über die Qualität oder das Potential aussagt. Wenn neue Daten, die eigentlich falsch sind, als richtig bewertet werden und das bereits gesicherte (richtige) Wissen durch diese Information (bewertete Daten) geändert wird, büßt der Interpreter absolut gemessen an Wissensqualität ein. Die Information hat somit ein perturbierendes Moment. Dieses Moment ist nicht gerichtet. Zu allen Zeiten machten Zensoren sich das zu Eigen, um gewisse Daten und ihre Verbreitung zu untersagen. Doch nicht nur Zensoren, sondern auch Eltern blockieren den freien Daten-Fluss mit Hinweis auf die Entwicklungsstadien und Reife ihrer Kinder.15
[12]
Für unsere maschinen-zentrierte Perspektive bedeutet das, dass wir uns der Signal-Ebene annehmen müssen. Der Signal-Ebene können wir uns aber nur über eine Konzeption der Daten-Typen bzw. über eine allgemeine Konzeption durch Maschinen-Modelle annähern, ohne dass wir uns auf der Ebene der Elektrotechniker bewegen müssen.

2.1.

Das Hauptanliegen dieses Projekts ^

[13]
In dem Projekt, das mit diesem ersten Beitrag schrittweise vorgestellt wird, entwickeln und motivieren wir ein Konzept, das den Blickwinkel der Berechenbarkeit in den Fokus der Rechtsinformatik und Rechtstheorie stellen will.
[14]
Wir nehmen hierzu immer die Perspektive einer Maschine ein und versuchen einen formalsprachigen Übersetzer zu konzipieren, der uns als Menschen die Möglichkeit gibt, die Maschine dahingehend zu befähigen, die formalisierbaren Anteile der juristischen Entscheidungsfindungen und Urteilsbegründung in einem gegeben Dokument zu identifizieren.
[15]
Es geht in diesem Projekt im weitesten Sinne um maschinelles Lernen juristischer Begründungs- und Rechtsfertigungsstrukturen. Die Grundlage unserer Perspektive bildet immer eine schriftliche Urteilsbegründung, die in ein maschinell verwertbares Signal überführt wurde. Die Bestandteile, die wir betrachten, können wir einerseits über Datentypen und einen datentypspezifischen Logikkalkül betrachten, d.h. mehr eine syntaktische, zeichenorientierte Sichtweise einnehmen oder eine mehr strukturell-semantische, die wir hier entwickeln werden.
[16]
Das Problem hierbei ist, in dem vorliegenden Datenstrom die offenen und die verborgenen Strukturen und ihre Abhängigkeiten zu erkennen. Die Begründungsstrukturen werden dabei als konstituierend angesehen werden. Der Kern dieses Identifizierungsproblems liegt in der angemessenen Interpretation und Bestimmung der Struktur, da es zu dem Datensatz mehrere Möglichkeiten gibt, diesem eine angemessene Struktur zuzuschreiben. In etwas anderen Worten ausgedrückt, wir versuchen der Maschine beizubringen, die Grammatik der Rechtfertigung eines Urteils zu erkennen. Da es mehr als eine solche Grammatik der Rechtfertigungsstruktur gibt, muss man versuchen, diese geschickt auszuwählen. Wenn es nur wenige solche Grammatiken gibt, ist die Auswahlzeit endlich. Gibt es viele solche Möglichkeiten oder sogar unendlich viele, dann haben wir ein so genanntes Stopp-Problem. Die Maschine kann nicht in vernünftiger Zeit zu einem Ende kommen.
[17]
Den formalen Zugang, den wir hier im Gewande der berechenbarkeitsorientierten Rechtstheorie (CLT) vorstellen, versucht durch diesen Raum der vielen bis unendlichen Möglichkeiten der potentiellen Rechtfertigungsstrukturen iterativ, d.h. Schritt für Schritt zu durchschreiten. Anderen Verfahren hat unser Zugang voraus, dass er nicht eine dumme Maschine ohne Gedächtnis simuliert, sondern eine lernende Maschine. Der Grundgedanke war, die so genannten Bayes‘schen oder Hidden Markov Chain Verfahren (die normalerweise für solche Fragestellungen eingesetzt werden) zu formalisieren, ohne (explizit) die Wahrscheinlichkeitstheorie zu verwenden.
[18]
Damit diese maschinelle Lernstrategie, die eigentlich eine Vorwärts-Rückwärtsschau ist, erfolgreich ist, muss der strukturell-semantische Rahmen, den wir hier aufbauen wollen, eine gute Charakterisierung der Grammatik der Rechtfertigungsstruktur sein.
[19]
Empirisch konnten wir das schon durch die Auswertung einiger Urteile und ihrer Struktur unter Beweis stellen. Ein dafür verwendetes Verfahren wurde auf der IRIS 2013 vorgestellt. Was offenblieb bei dieser Präsentation war die Problematik, die mit der Auswahl der richtigen Rechtfertigungsstruktur verbunden ist. Das Verfahren, das präsentiert wurde, basiert auf einer probabilistischen Strategie. Wenn wir es mit dem hier entwickelten Rahmen umsetzen, dann verzichten wir auf Simulationen und setzen schrittweise Schranken.

2.2.

Maschinelles Lernen schriftlicher juristischer Rechtfertigung und universelle juristische berechenbarkeitsorientierte Rechtfertigungsstruktur ^

[20]
Diese universelle juristische Rechtfertigungsstruktur, von der hier die Rede ist, stellt einen Teilbereich der Computable Legal Theory (Berechenbare Modelle der Rechtstheorie) dar. Das Ziel ist es nicht eine universelle Theorie der Rechtfertigung zu entwickeln oder in Konflikt mit anderen Methoden der Rechtslehre zu kommen, sondern die Maschine als juristische Assistenzkraft jenseits trivialer Tätigkeiten und als bessere Schreibmaschine ernst zu nehmen. Auch soll damit die reine Datenbankschau, die in Form der Rechtsinformatik betrieben wird, durchbrochen werden. Durch diese Annährung und Zusammenführung der Rechtsphilosophie, Rechtstheorie und Rechtsinformatik wird die Wissenschaftstheorie der Rechtswissenschaft bzw. die Rechtsmethodologie angereichert um eine Logik die maschinenzentrierte, pragmatische Verfahren generieren kann, und die nicht nur im Ungewissen und in der Vagheit bleiben, sondern auch realistische und ein ökonomisches Anwendungspotential aufweisen.
[21]
Methodologisch kann man diese Erweiterung in der analytischen Begriffsjurisprudenz verorten. Hiermit ist die These verbunden, dass Teile der Wertungsjurisprudenz sich mit der Begriffsjurisprudenz zu einer so genannten Strukturjurisprudenz verbinden, die maschinell auswertbar sind. Wichtig hierbei ist, dass die Maschine nicht(!) den Gesetzeslaut auslegt, sondern die richterliche Auslegung und Interpretation aufnimmt und daraus erkennt, wie sich die Rechtfertigungsstruktur ergibt bzw. zusammensetzt. Eine Grammatik der Rechtfertigung bedeutet somit diese spezifische Struktur eines konkreten Falles zu erkennen und diese mit anderen in Vergleich zu ziehen. Eine detaillierte Erläuterung der Strukturjurisprudenz wird im Rahmen der Serie nachgereicht.
[22]
Um diese Grammatik der Rechtfertigung einer konkreten richterlichen Rechtfertigung zu erkennen, müsste die Maschine, wie oben beschrieben, einen theoretischen Raum der Möglichkeiten einschränken. Unsere Vorgehensweise wird die eines informierten Lernenden sein, d.h. wir geben der Maschine die Möglichkeit auf bereits Erlerntes zurückzugreifen und dazu zu lernen bzw. erlerntes zu ändern oder zu verbessern. Die Gefahr einer Verschlechterung besteht, wie oben bereits angemerkt, immer und muss in die Überlegung mit einbezogen werden.
[23]
Wie kann man nun ein solches Lernverfahren bewerkstelligen? Die naheliegendste Idee wäre es, mit einer Liste voller Parameter (d.h. ein Parameter ist lediglich eine Frage) zu arbeiten und nachzuprüfen, ob ein gegebenes Dokument diese oder jene positiv beantworten kann. In den Parametern hätte man schon vorab die wesentlichen Merkmale der Rechtfertigungsstruktur niedergelegt. Hätte man nun n solche Fragen (Parameter), die wir mit Ja-Nein-Fragen beantworten könnten, so würde es exponentiell viele Möglichkeiten geben (2n). Bei einer Bewertung der Fragen (Parameter), die mehr als zwei Möglichkeiten offen lässt, müssten wir die 2 durch die entsprechende Zahl der Bewertungskategorien ersetzen.
[24]

Würde unsere Bewertungsstruktur m verteilte Einschränkungen haben, mit denen wir diesen Raum einschränken könnten, so könnten wir diese variierend anwenden und würden durch diese Einschränkungen permutieren. Wir würden auf ein sehr starkes Anwachsen kommen (m! — gelesen m Fakultät). Dahinter verbirgt sich eine lange Multiplikation, so bedeutet 5! = 1 * 2 * 3 * 4 * 5 = 120. Solche Einschränkungen kann man sich vorstellen als Abwägungen, ab wann man welchen Parameter und mit welchem Wert und ggf. in welcher Kombination anwendet. Mit diesem Beispiel sollte unterstrichen werden, dass eine solche vorgefertigte Sicht auf eine Problemstellung in einem kombinatorischen Albtraum enden wird. Unsere Konzeption möchte auf diese vorgefertigte Parametrisierung verzichten.

2.3.

Grundzüge der berechenbarkeitsorientierten Rechtfertigungstheorie ^

[25]
Die Grundzüge der Theorie geben wir in Form einer kurzen Liste in fünf Schritten wieder und stellen sie in dem nachfolgenden Beitrag detaillierter vor. Zu beachten ist, dass wir nun als Übersetzer denken, der einer Maschine das Urteilslesen beibringen möchte. Die Maschine soll am Ende ein kluger Assistent sein, der uns sogar in der Muster- und Strukturerkennung ebenbürtig oder überlegen ist.
  1. Was haben alle schriftlichen Urteilsbegründungen (= Rechtfertigung im weitesten Sinne, engl. justification) gemeinsam? Eine spezifische Bildungsstruktur, d.h. gewisse Einschränkungen in der Bildungsstruktur – der Art und Weise wie diese Strukturierung erfolgt.
  2. Worin unterscheiden sich diese Rechtfertigungen? Nur darin wie diese Einschränkungen priorisiert werden.
  3. Die rechtfertigungsspezifische und für eine Urteilsausfertigung getroffene Einschränkung der Prioritäten sind charakterisiert durch ein Ranking der besseren Erklärungsstruktur. Dadurch wird eine (bewertete) Hierarchie der Strukturen für ein ausgewertetes Dokument aufgebaut.
  4. Die Struktur oder Grammatik der Rechtfertigung, d.h. in diesem Kontext ihre bewertete Hierarchie der Einschränkungen (siehe Punkt 3), ist ein Bewertungsverfahren der strukturellen Beschreibungen und weist nicht numerische(!) Balancierungswerte zu. Daraus ergibt sich die Ordnung der Einschränkungen. Und aus dieser wiederum die Ordnung der möglichen Strukturen, die auf ein gegebenes Dokument mit juristischer Rechtfertigung passen. Durch diese Strukturierung und Ordnung der möglichen Rechtfertigungsstrukturen ist es möglich, minimale und maximale Struktur für eine juristische Rechtfertigung zu finden.
  5. Diese grammatikalische Form, d.h. die Struktur der Rechtfertigung, ist die unter diesen Umständen und Optionen optimale. Damit ist gemeint, dass sie die maximal ausbalancierte Wahl unter den gegebenen Möglichkeiten ist.
[26]
Es ist wichtig darauf hinzuweisen, dass die oben erwähnten Einschränkungen in allen Rechtfertigungen die Gleichen sind: keine enthält Parameter. Damit ist diese Theorie, die wir einführen, keine auf Parameter und vorgegebenen Bewertungen basierende kombinatorische Theorie. Das ist ein weiterer Beleg dafür, dass wir uns hier auf dem Terrain einer strukturell-semantischen Theorie und nicht einer syntaktisch-kombinatorischen bewegen. Somit grenzen wir uns auch von der französisch dominierten kombinatorischen Logikschule ab. Unsere Konzeption zielt mehr auf eine übergreifende Variation der hinreichend geeigneten Beschreibungsstrukturen juristischer Rechtfertigungen ab. Diese Vorgehensweise hängt weniger von strukturellen Annahmen ab und ermöglicht ein freies maschinelles Erlernen der juristischen (schriftlichen) Rechtfertigungsstrukturen.
[27]
Die Hauptthese des Projekts lässt sich nun folgendermaßen fassen: die berechenbarkeitsorientierte Theorie der Rechtfertigung ist ein Teil der CLT aufgrund ihrer Maschinenorientiertheit. Diese Theorie ermöglicht es, aus ihr heraus allgemeine, strukturell lernende Algorithmen juristischer Rechtfertigungen zu spezifizieren. Diese Theorie selbst ist eine Art hinreichende allgemeine grammatikalische Struktur für die Mensch-Maschinen-Interaktion.
[28]
Die von uns im Rahmen dieses Projekts vorgestellten Algorithmen sind Prozeduren, welche die Priorität des Rankings der Einschränkungen erlernen. In anderen Worten, es unterscheidet und separiert die Grammatik einer Struktur einer Rechtfertigung. Das sind strukturelle, memorierende Lernverfahren und keine generischen Suchalgorithmen. Aus dem oben skizzierten Rahmen kann man natürlich auch nicht-memorierende Verfahren gewinnen.
[29]
In dem nächsten Beitrag wird ein wenig mehr auf das iterative Konzept und vertiefter auf die hier nur bruchstückhaft skizzierte berechenbarkeitsorientierte Rechtfertigungstheorie eingegangen werden. In dem dritten Beitrag wird vermehrt auf das Ranking und assoziierte Algorithmen eingegangen. Insgesamt ist für die Beitragsserie ein Umfang von etwa acht Ausarbeitungen vorgesehen, in welchem auch auf die Vollständigkeit und logische Abgeschlossenheit der hier skizzierten strukturell-semantischen Theorie eingegangen wird.

 

Rainhard Bengez ist derzeit Gastprofessor an der «National University of Taipe» und unterrichtet ausserdem an der TU München. Seine Fächer sind Mathematik (Logik, Stochastik und das Modellieren von gesellschaftlichen Phänomenen) sowie (juristische und soziale) Philosophie. Er hat zwei Doktortitel erworben und war bis 2008 Professor der Mathematik in Astrakhan.

 

Rainhard Bengez is actually a visiting professor at the National University of Taipei and is teaching at TU München as well. His subjects are mathematics (logic, stochastic, and modeling of social phenomena) and (legal and social) philosophy. He holds two PhD’s and was till 2008 prof. of mathematics in Astrakhan.

Ich möchte mich bei Hajime Yoshino, Tokio, Friedrich Lachmayer, Innsbruck und Wien sowie Matthias Armgardt, Konstanz und bei dem DFG-Projekt JurisLog für die Förderung, Hilfestellungen und Diskussionen bedanken. Mein Dank gilt ferner Lothar Philipps, München und Erich Schweighofer, Wien für ihre hilfreichen Korrekturen und Kommentare.

 


  1. 1 Zuletzt präsentierte er dieses Konzept im November 2012 in München auf einem Festkolloquium zu Ehren von Roland Wittmann. Der ausgearbeitete Vortrag wird in einer Publikation, herausgegeben von Bernd Schünemann, Lothar Philipps und Rainhard Bengez, im laufenden Jahr im Springer Verlag erscheinen. Ältere Arbeiten zu diesem Themenkreis sind u.a.: Yoshino, Hajime: Zur Anwendbarkeit der Regeln der Logik auf Rechtsnormen, in: Die Reine Rechtslehre in wissenschaftlicher Diskussion, Manz 1982, S. 142 – 164. Oder, Tractatus Logico-Juridicus – Its Basis, in: Auf dem Weg zu einer Idee der Gerechtigkeit: Gedenkschrift für Ilmar Tammelo, hg. von Jakob, Raimund et al., LIT Wien 2009, 127 – 148. Zudem findet sich unter dem folgenden Link eine Online-Präsentation: http://www.docstoc.com/docs/74342360/From-Pure-Theory-of-Law-to-Logical-Jurisprudence bzw. hier: http://www.legalvisualization.com/download.php?hash=7f9c1b29ae4653f31676b92e1e1ee8d3?fname=20070703_Tokyo_Keio_University%2C_Hajime_Yoshinos_Logical_Jurisprudence.pdf
  2. 2 Hierbei sind die hauptsächlich die Vielzahl der Autoren und Projekte gemeint, die in der Zeitschrift AI and Law, welche im Springer Verlag erscheint und herausgegeben wird von Kevin Ashley, Trevor Bench-Capon und Giovanni Sartor. Eine praktische Alternative hierzu stellt das Journal Law, Probability, and Risk dar, das von der Oxford University Press verlegt und von Joseph L. Gastwirth herausgegeben wird. In ihr erscheinen auch mehr empirisch fundierte und praktisch konzeptionelle Arbeiten.
  3. 3 Beispielsweise Yoshinos Creative Legal Mind Project
  4. 4 Wolfgang Stegmüller, ein Innsbrucker Mathematiker und Philosoph, der lange Zeit in München die Wissenschaftstheorie geprägt hat, war ein Vertreter der strukturalistischen Schule, welche von der Interpretation ausgeht, dass Prädikatenlogik und Mengentheorie äquivalent sind. Ferner ist diese Schule von der ontischen Ansicht geleitet, dass sich die Verbindungen der wesentlichen Objekte eines Theorie- oder Erklärungsgebäudes und ihre Relationen durch die Sprache der Mengenlehre ausdrücken lassen. Als Blaupause für diese Weltsicht dient die Physik. Allen voran die klassische Mechanik, die sich als Hamilton-System formschön mathematisch ausdrücken lässt. In der Physik versucht man nun auch die statistische Physik auf die Mechanik zurückzuführen. Andere Theorien wie die Quantenphysik und die Relativitätstheorie versucht man ähnlich strukturell zu fassen. Mit diesem Leitmotiv versucht die (strukturalistische) Wissenschaftstheorie auch die anderen Wissenschaften methodologisch zu fassen.
  5. 5 Nikolas Bourbaki, das wohlbekannte Pseudonym französische Mathematikerkollektiv, das für die reine formale Algebraisierung einer Theorie steht, ohne einen Gedanken an die Visualisierung zu verschwenden steht hier als Leitbild für die universelle Auffassung der Prädikatenlogik (erster Stufe), die sich überwiegend von französischen Logikern vertreten wird. Ein formales Beispiel hierzu ist die sog. kombinatorische Logik. Das ist eine strikte Logik, die von Moses Schönfinkel und Haskell Brooks Curry eingeführt wurde und sich an dem Lambda-Kalkül anlehnt. Dieser Ansatz versucht die Verwendung von Variablen zu vermeiden. Insbesondere in der theoretischen Informatik wird dieses Konzept bei der Erstellung von funktionalen Programmiersprachen eingesetzt. Funktionale Programmiersprachen kann man sich als Listen vorstellen, mit denen man rekursiv arbeitet. Der Vorteil der funktionalen Programmiersprachen liegt in ihrer guten Handhabbarkeit bei der Formulierung von Problemen. Der Nachteil besteht in dem enormen Speicherverbrauch und in ihrer schwächeren Performanz.
  6. 6 Gottlob Frege gilt als einer der Gründerväter der analytischen Philosophie und Initiator der modernen Prädikatenlogik. Er vertrat die Ansicht, dass die gesamte Mathematik in und durch Logik ausgedrückt und bewiesen werden kann. Eine Idee, die sich durch ihn inspiriert im Grundlagenprogramm von David Hilbert fand, aber durch Russell und zu guter Letzt durch Gödel und seine Unvollständigkeitssätze zunichte gemacht wurden.
  7. 7 Ist der Vater der Phänomenologie. Eine seiner prominentesten Schülerinnen war Edith Stein. Mit der Phänomenologie versuchte Husserl die Philosophie streng wissenschaftlich zu begründen. Er durchbrach damit die Ansicht, dass Logik die rein psychologische Ansicht der Dinge ist und somit nicht objektiv – besser wäre wohl intersubjektiv – fassbar. Objektivität war für ihn somit prinzipiell erreichbar.
  8. 8 Diese Autoren beschäftigten sich zuletzt ausgiebig mit der juristischen (rationalen) Argumentation und hier insbesondere mit dem Story-Telling. Rui Soares Pereira kritisierte dieses Vorgehen zuletzt ausgiebig in zwei Arbeiten, die in dem Sammelband Rechtsentstehung und Wertsetzung, hg. Von Schünemann, Philipps und Bengez, Springer 2013 und in dem Sammelband Von der Spezifikation zum Schuss, hg. Von Philipps und Bengez, Nomos 2013.
  9. 9 Prakken und Sartor beschäftigten sich in den 1990er Jahren intensiv mit dem nichtmonotonen Schließen im juristischen Kontext und später mit Rechtsontologien. Beide Forschungsprojekte haben einen gewissen formalen Reiz, konnten aber nie wirklich (vielleicht wegen der Maschinenferne) zu einer pragmatischen Umsetzung führen.
  10. 10 Berechenbarkeit bedeutet, dass ein Algorithmus in ein Programm übersetzt werden kann und wenn das Programm durch eine Maschine ausgeführt wird, es in endlicher Zeit ein Resultat zurückgibt. Ist nun alles berechenbar? Nein. Und das ist auch ein kapitaler Fehler in der KI und Recht. Hier wird der englische Ausdruck computation anstelle von computable verwendet. Doch nicht alles was computional ist computable, d.h. berechenbar. Ein Beispiel hierzu ist die Ackermannfunktion. Hierbei handelt es sich um eine sehr, sehr schnell wachsende Funktion. Für diese Funktion gibt es zwar eine Rechenvorschrift, d.h. sie ist computational, aber es gibt keine Maschine, die diese berechnen kann. Aus diesem Grund ist die Ackermannfunktion nicht(!) berechenbar, d.h. nicht computable.
  11. 11 Ehre, wem Ehre gebührt. Der Vorschlag eine öffentliche Datenbank mit mathematischem Know-how auch und besonders für Laien zur Verfügung zu stellen, stammt von Joseph L. Gastwirth, George Washington University, Washington, D.C., VA. Den Vorschlag unterbreitete er dem Autor im April 2013, als dieser ein statistisch-stochastisches Verfahren vorstellte, Urteile aus einer Datenbank auszulesen und fortlaufend nach Relevanz zu einem gegebenen Fall zu gruppieren.
  12. 12 Für eine Logik braucht man drei Sachen: eine Sprache, die ausdrückt worüber man sprechen möchte, eine Bewertung, mit deren Hilfe man die Minimalsemantik in die Struktur hineinbringt (meist ist es das zweiwertige Wahr-Falsch-Schema) und zu guter Letzt eine Hilfsmittel mit dem man Belegen kann, d.h. mit dem man (formale) Beweise führen kann. Eine gegeben Logik ist eine Art Grammatik die man selbst bewerten kann. Diese Grammatik kann widerspruchsfrei sein, wenn es keine zwei unterschiedlichen Bewertungen einer Aussage zulässt; sie kann vollständig sein, d.h. alles was als gültig angesehen wird muss sich aus dem logischen System ableiten lassen. Das war und ist die überwiegend semantische Sicht auf eine logische Theorie. Blickt man auf dieselbe Theorie syntaktisch, d.h. mit dem Fokus auf die Zeichen und die Zeichensetzung, dann kommt der Struktur (Redundanz, etc.) große Bedeutung zu. Schnittregeln kann man sich nun als strukturellen modus ponens vorstellen.
  13. 13
    Am angemessensten (im Sprachgebrauch der Logik) würde sich dieser Ausdruck als Berechenbare Modelle der juristischen Begründungs- und Rechtfertigungslehre übersetzen lassen. Allerdings suggeriert diese Übersetzung vielleicht mehr, als solch eine Theorie zu leisten im Stande ist. Letztlich geht es nur darum die Frage zu klären, was von einer Maschine gefunden werden kann und wie man die Maschine auf diese Aufgabe algorithmisch ausrichtet. Dieser Ansatz ist ein Querschnitt durch die Rechtstheorie, die bereichert wird und die Rechtsphilosophie, resp. Rechtstheorie, die Rechtslogik und die Methodenlehre. Von Seiten der Informatik oder mathematischen Logik kommen das Denken in Datenstrukturen, Algorithmen und das Theorienkorsett der sog. mathematischen Beweistheorie hinzu. Die Beweistheorie untersucht die syntaktischen Strukturen mathematischer Begründungen und ist sehr maschinenaffin. Die zu ihr äquivalente logische Modelltheorie umschreibt Problemkreise in dem sie Phänomene und Objekte (axiomatisch) definiert. Beide Ansätze sind theoretisch (und das kann man beweisen) äquivalent. Die Modelltheorie ist beliebter und hat mächtigere Einsichten zu Tage gefördert. Die mehr auf das Zeichen fixierte Beweistheorie ist schwerer zugänglich. Das ist wohl ein Grund dafür, dass sie weniger theoretisch gewichtige Theoreme aufzuweisen hat als die semantische Modeltheorie. Die hier vorgestellten Theorien wollen aufzeigen, wie fruchtbar dieser Querschnittsansatz für die Rechtsinformatik und die juristische Methodologie sein kann.
  14. 14 DuD – Datenschutz und Datensicherheit, Springer Verlag; der Beitrag Schlüsselkonzept der Suchmaschinen erscheint im Juni 2013 in einer Sonderausgabe, die von Marie-Theres Tinnefeld herausgegeben wird.
  15. 15 Da es sich bei diesem ersten Artikel um eine Einleitung handelt und der Datenbegriff in dem nachfolgenden Artikel vertiefend diskutiert und von der Information abgegrenzt wird, werden wir dort auch Literaturhinweise geben. Beispielsweise die Arbeiten von Luciano Floridi aus England, der sich mit einer eigenwilligen Interpretation des Informationsbegriffs (unter www.philosophofinformation.net) als Informationsphilosoph jenseits der Technik einen Namen gemacht hat. Er ist unteranderem Autor der im Oxford University Press Verlag erschienen Bücher: Information a very short introduction, 2010 und sein zweibändiges Hauptwerk: Philosophy of Information, 2012. Auch Lothar Philipps hat mehrere sehr lesenswerte Arbeiten zum Thema Recht und Information verfasst, auf die wir in dem nachfolgenden Artikel eingehen werden. Eine Arbeit (die älteste mir bekannte) hierzu ist: Recht und Information, in Rechtstheorie, hg. von Kaufmann, Arthur, Müller Verlag Karlsruhe 1971, 125 – 134. Eine andere neure Arbeit beschäftigt sich mit Bar Hillel und ist u.a. in einer Version in den Archiven der Rechts- und Sozialphilosophie erschienen.