Jusletter IT

Computable Legal Theory

  • Author: Rainhard Z. Bengez
  • Category: Articles
  • Region: Germany
  • Field of law: Legal Theory
  • Collection: Tagungsband IRIS 2014
  • Citation: Rainhard Z. Bengez, Computable Legal Theory, in: Jusletter IT 20 February 2014
Computable Legal Theory versucht eine Brücke zu schlagen zwischen den Resultaten der KI- und Recht-Forschung, den Anforderungen der juristischen Praxis und der methodologisch-technischen Sphäre der Maschinenmodelle. Im Zentrum steht die konkrete Anwendbarkeit im Sinne der formal-mathematischen Berechenbarkeit und ihre Grenzen und nicht die konzeptionelle Nachbildung juristischer Tätigkeiten sowie ein (rechts-)philosophischer Reflektionsrahmen, der sich an den Grundgedanken von Leibniz und Spinoza orientiert.

Inhaltsverzeichnis

  • 1. Begriffs- und Wertungsjurisprudenz
  • 1.1. Begriffsjurisprudenz
  • 1.2. Interessensjurisprudenz und Wertungsjurisprudenz
  • 2. KI und Recht oder warum computable und nicht computational?
  • 3. Brückenbauen

1.

Begriffs- und Wertungsjurisprudenz ^

1.1.

Begriffsjurisprudenz ^

[1]
Die Begriffsjurisprudenz des 19. Jahrhunderts war ein Kind ihrer Zeit und der Versuch einer strikten Systematisierung des Rechts.
[2]
Es ist sicherlich nicht zu weit spekuliert, die Idee der Begriffsjurisprudenz mit der Formulierung der Prädikatenlogik durch Frege und bspw. seine Begriffsschrift sowie die aufkommende Idee, die Mathematik und eine jede mit ihr in Bezug gesetzte Wissenschaft als Regelspiel anzusehen. Hier war der Gegenstand der Debatte, dass man formale Systeme als Spiele ansah. Eine Idee, welche später Wittgenstein wieder aufgreifen wird. Wenn man aus formalisierten Regeln logische Schlussfolgerungen ziehen kann und diese nichts anderes sind als Re-Formulierungen der Anwendung von einigen Kern-Begriffen, dann erscheint es nur folgerichtig, dass dies auch für Normsysteme wie das Recht gelten müsste. Denn, was sollte Recht nach dieser Auffassung denn anderes sein, als ein großes gesellschaftliches Regelspiel? Was bei allem Ehrgeiz übersehen wurde war nicht, wie oftmals behauptet, die Praxisferne, sondern die Komplexität und Dynamik. Anders als Spiele, die in ihrem Begriffs-Kontext abschlossen sind, erfahren Normsysteme eine Umdeutung der Begriffe in dem Sinne, dass ihr Anwendungskontext sich mitunter rapide zu ändern vermag. Oftmals ist es auch nicht klar, was für Begriffe gemeint sind. Denn Begriffe generieren sich manchmal über Generation und sind immer historischer Natur. Das Recht behilft sich oftmals mit Listen von sog. paradigmatischen Beispielen. Es bleibt aber mind. anzuerkennen, dass der Versuch unternommen wurde die Rechtswissenschaft mit den damals aktuellen und modernen Ansätzen der Philosophie und Mathematik zu modernisieren.
[3]
Ein moderner Ansatz in diesem Kontext stellt Hashime Yoshinos logische Rechtslehre da. Es ist der Versuch mit Hilfe einer logischen Abfragesprache (Prolog) Rechtskonflikte darzustellen. Seine vorgestellten Beispiele haben überwiegend didaktische Funktion und werden auf (internationales) Vertragsrecht angewendet. Sein Ansatz funktioniert, da hier alle Begriffe in dem Sinne spezifiziert sind, da es keine Prädikate im Sinne der Prädikatenlogik mehr gibt und es sich um eine geschlossenes System handelt. Diese Abgeschlossenheit wird erreicht durch
[4]

Was wir aus diesem Ansatz für die Computable Legal Theory lernen können, ist

  1. Wir dürfen die Komplexität des Rechts und die Vagheit ihrer Begriffe nicht unterschätzen
  2. Es scheint einen Bedarf zu geben, neben einer Systematik auch (temporärer) Einheiten zu schaffen, die als Begriffe hilfreich sein könnten. Das führt uns zu
  3. dass wir abgrenzen sollten, was sich in systematische Begriffe fassen lässt, was man diesen Begriffen unterordnen kann (auch hier greift wieder die Vagheit) und was sich nicht begrifflich fassen lässt.

1.2.

Interessensjurisprudenz und Wertungsjurisprudenz ^

[5]
Die Interessensjurisprudenz fokussiert auf den Richter als Entscheider, der in einer gewissen Situation die Konflikte erkennen muss, die in einer Norm ihre Auflösung gefunden haben und eine sinngemäße, d.h. analoge Entscheidung zu treffen hat. In diesem Licht erscheint entweder jeder Richter als Laplace’scher Dämon, der über grenzenloses formales und soziales Wissen verfügt oder jede Entscheidung als personengebunden, begrenzt und naturgemäß fehleranfällig bis willkürlich.
[6]

Akzeptiert man als weitere Aufgabe des Richters, dass er auch rechtsschöpferisch tätig zu sein hat, dann stellen sich vorrangig zwei Fragen:

  1. Welche methodologischen Werkzeuge stehen dem Richter in der Eingliederung eines Sachverhaltes in ein Normenkorsett zur Verfügung?
  2. Wie kann man methodologisch nachvollziehbar erkennen oder entscheiden, ob die von ihm geprägte Norm eine Lücke schließt
    1. eine Lücke schließt (sinngemäß)
    2. es die optimalste Entscheidung war, da es durchaus mehrere Möglichkeiten geben wird, eine Normlücke zu schließen.
[7]
Im Sinne eines demokratischen Rechtsstaates fordern die Punkte a. und b. Transparenz; im Sinne einer wissenschaftlichen Disziplin Dialog und methodische Nachvollziehbarkeit.
[8]
Die Wertungsjurisprudenz verschiebt die Frage der Bewertung auf den Gesetzgeber. Das ist allerdings nichts weiter als eine Chimäre, da es den Richter nicht aus der Pflicht der Re-Evaluierung entlässt. Nur wird dem Vorwurf der Willkür entgangen, bzw. die Willkür semantisch durch die Möglichkeit einer falschen Re-Evaluierung ersetzt. Nun kann der Richter Fehler machen, wenn er eine Entscheidung trifft, die nicht auf die erhoffte Zustimmung trifft. Interessanter Weise ist das aber nichts anderes als eine sanfte Wiedereinführung einer Begriffshoheit. Es ist nun wieder wie im Mathematik- oder Physikunterricht. Man trifft das richtige Ergebnis oder nicht. An der eigentlichen Tätigkeit der Analogiebestimmung ändert das nichts.
[9]
Was wir aber hier entnehmen können ist, dass es einer Art Systematik bedarf – diese wird natürlich angewandt und ist Bestanteil der Ausbildung, allerdings wäre eine Hilfestellung wünschenswert, vielleicht eine Art Check, ob die gegebenen Interpretationen die Lücke füllen, oder ob man aus den gegeben Normen und dem Problem nicht die fehlende Norm erkennen könnte. Das erinnert ein wenig an die sog. Reverese Mathematik, in der man versucht, einen Satz mit möglichst wenig Annahmen zu beweisen, so dass man dazu vielleicht nicht der ganzen Theorie bedarf, bzw. die Lücken zu finden und die damit in Bezug stehenden Axiome als Forderung stellen könnte. Es erscheint also sinnvoll nach einem Hilfsmittel zu fragen und nach den Grenzen, in dem sich dieses bewegen könnte. Idealerweise würde solch eine nicht-kreative Arbeit eine Maschine verrichten, könnte man denken. Also ergibt sich die Forderung, diese Überprüfungs-Arbeit soweit möglich an eine digitale Maschine zu delegieren.

2.

KI und Recht oder warum computable und nicht computational? ^

[10]
Mit Fragen der Einbindung von hilfreichen und nahezu selbstständig agierenden Maschinen beschäftigen sich die Forschungen um KI und Recht. Leider sind sie bislang hilfreiche Programme und Prozeduren schuldig geblieben. Das mag einerseits darin begründet liegen, das man hier noch dem alten Paradigma der sog. starken KI anhängt, die fordert, das ein großer Problemkreis autonom durch eine Maschine bearbeitet wird, oder andererseits an der Ignoranz der Möglichkeiten der digitalen Maschinen und moderner Programmierkonzepte. Die Vorgehensweise ist meist Top-Down. So wird versucht, eine Struktur des juristischen Alltagsgeschäftes zu erkennen und diese irgendwie in ein als formales Modell bezeichnetes Korsett zu zwingen. Aber ist es notwendig, dass eine Maschine imitiert? Geht es darum einen Robo-Juristen zu bauen?
[11]
Viel naheliegender scheint es den Problemkreis einzuengen und fehleranfällige Assistenzsysteme zu konstruieren. Fehleranfällig bedeutet, dass man sich damit zufriedenstellt, wenn das System einem dazu verhilft, die Komplexität zu reduzieren, vielleicht in dem Routine-, Recherche-, oder Systematisierungsarbeiten übernommen werden und man als Experte nur noch die Nachprüfpflicht wahrnimmt und das Resultat zu verbessern hat. Fast wie bei einem Auszubildenden. Denkt man so, so lässt man die starke KI hinter sich und begnügt sich mit Systemen, die eine Aufgabe (semi-autonom bis autonom) entscheiden können. Ihr Umfang und Kontext ist begrenzter. Das fordert aber, dass man eine andere Sicht auf die Problemstellungen einnimmt sowie die Grenzen und Möglichkeiten von (theoretischen) Maschinenmodellen wie es beispielsweise im Turing-Modell getan wird, überdenkt. Als Modellierungsansatz bietet sich die Sandwich-Methode an: ein wenig bottom-up und ein wenig top-down.
[12]
Das ist es, was der computable Ansatz versucht. Er fokussiert auf die mathematisch berechenbaren Aspekte einer Problemstellung und bezieht die Maschine und das Problem in sein Denken mit ein. Fokussiert man auf den computational Ansatz, so geht es darum mathematische Modelle zu bauen, die gegebenenfalls softwaretechnisch umgesetzt werden können, oder auch nicht. Dieser Ansatz macht aber eigentlich nur in mathematischen Wissenschaften Sinn, da es hier kein Problem darstellt, im mathematischen Sinne nicht-berechenbare Modelle und Methoden zu bauen, da man diese dann versucht mit großen Abweichungen auf die Maschine zu bringen. Es zählt hier ggf. der Erklärungs- und Verstehensansatz. Doch benötigt die Jurisprudenz die Mathematik in der Regel nicht, um ihre Tätigkeit zu verstehen oder die Dinge, die sie tut, zu erklären. Sie benötigt in der immer mehr und mehr IT-getriebenen Welt eine korrespondierende Größe, die ihr hilft, Teile an Maschinen abzugeben, um der Arbeitsflut einer vernetzten und bürokratischen organisierten Welt, die sich austauscht, Herr zu werden und letztlich auch, um Rechtsgleichheit durch gleiche Daten- und Informationsverarbeitung zu gewährleisten. Denn nur wer die Berge an Daten bewältigen kann, sich Transparenz verschafft, der ist in der Lage sich Recht und Gehör zu verschaffen. Für Richter bedeutet dies auch, Urteile im Kontext und auf der Höhe der Zeit zu entscheiden. Und letztlich verhelfen solche Systeme zur Reduktion der mit der Rechtsprechung verbundenen Bürokratie.

3.

Brückenbauen ^

[13]
Computable Legal Theory möchte nun diese Brücke bauen. Das tut sie einerseits, in dem sie einen nachvollziehbaren philosophischen Rahmen angibt, innerhalb dessen sie agiert. Dazu gehört, dass sie nicht den Anspruch an das Recht stellt, dass dieses vollkommen logisch strukturierbar wäre noch im mathematischen Sinne eine Theorie darstellt. Sie versucht, aus den bestehenden die Teile zu bestimmen, die sich in Datentypen fassen lassen. Das ist eine zutiefst kreative Tätigkeit, welche juristische und rechtsinformatische Fachexpertisen erfordert. Basierend auf dieser Struktur stellt sie dann einen syntaktisch-logischen Rahmen zur Verfügung, mit dessen Hilfe Sprachen für juristische Problemkreise gebaut werden können. Daraus lassen sich Programme entwickeln, die immer eine maschinelle Umsetzung erfüllen, da sie alle die Forderung der Berechenbarkeit erfüllen. In anderen Worten: dieser Rahmen ist gleichzeitig eine Referenz, mit welcher sich die bestehenden Modelle der KI-Forschung bereits auf einer Maschine umsetzen lassen. Lässt sich so ein Modell nicht in dem sprachlichen Rahmen der CLT formulieren, dann kann man damit auch kein Turing-Maschinen lauffähiges Programm erstellen. Dieser Rahmen kann auch Gemeinsamkeiten bestehender Ansätze aufzeigen. Die mehr semantische Orientierung hilft einem, Algorithmen für Problemkreise der Such- und Sprachverarbeitung bzw. Dokumentenverarbeitung zu erstellen. Diese Algorithmen könnte man dann wieder durch eine CLT-konforme Sprache in Programme übersetzen.
[14]
CLT ist einerseits ein logischer Rahmen mit einem starken Fokus auf die Maschine, der aber lediglich Assistenzsysteme für juristische Entscheidungen entwerfen möchte. Als rechtstheoretische oder rechtsphilosophische Disziplin fordert er den Anwendern Kreativität ab, die eigentlichen datentyp-gestützten Inhalte und Formen der Jurisprudenz aufzufinden. Gibt es solche Inhalte und Strukturen denn, oder laufen wir wieder in die Illusion der Begriffsjurisprudenz?
[15]
Die CLT versucht nicht, etwas Zeitloses zu bauen. Sie versucht lediglich Strukturelemente ernst zunehmen und diese auf ihren maschinelle Verwertbarkeit zu untersuchen. Sie erhebt nicht den Anspruch auf Fehlerlosigkeit in Bezug auf die juristische Tätigkeit. Sie akzeptiert, dass gewisse Dinge nur mit Wahrscheinlichkeitsbezug gelöst werden können. Letztlich zeigt sie auf, wo der kreative, nicht-berechenbare Anteil der Jurisprudenz zu finden ist und verweist auf die Kreativität und Einsicht, die notwendig ist, die berechenbaren Anteile zu identifizieren.
[16]
Ist das Zukunftsmusik? Nein. Es wurden auf der IRIS schon einige Projekte vorgestellt, die mit Hilfe dieses Ansatzes gelöst wurden und es werden aktuell einige der Algorithmen publiziert.
[17]
Im Rahmen des IRIS-Vortrages werden wir auch einige dieser Algorithmen und ein grobes Raster dieser Logik und dieses Programmes vorstellen.
[18]
Aber, es bleibt noch viel zu tun und alle sind herzlichst eingeladen als Problemgeber und Problembearbeiter daran mitzuwirken.

 

Rainhard Z. Bengez

TU München, MCTS

Munich Center for Society in Technology

Arcisstr. 21 80333 München, DE

http://www.quantius.org, bengez@tum.de