Jusletter IT

Über das Grab hinaus: Juristische Expertensysteme als persönliche Stellvertreter

  • Author: Burkhard Schafer
  • Category: Short Articles
  • Region: Scotland
  • Field of law: Advanced Legal Informatics Systems and Applications
  • Collection: Conference proceedings IRIS 2010
  • Citation: Burkhard Schafer, Über das Grab hinaus: Juristische Expertensysteme als persönliche Stellvertreter, in: Jusletter IT 1 September 2010
Dieser Aufsatz stellt auf Grundlage von einigen Forschungsprojekten an der University of Edinburgh eine alternative Anwendung für juristische Entscheidungssysteme dar: das juristische Expertensystem als «persönlicher Stellvertreter». Anders als die traditionelle juristische Künstliche Intelligenz (KI) die die Entscheidungen einer dritten Person – des Richters – als Ziel hatte, versucht dieser Ansatz die eigenen rechtlich relevanten Entscheidungen zu modellieren. Dies ist immer dann relevant, wenn man selbst diese Entscheidungen nicht mehr treffen kann – man denke etwa an eine neue, flexiblere Form des Patiententestaments, oder das Erbrecht im Allgemeinen.

Inhaltsverzeichnis

  • 1. Zurück in die Zukunft
  • 2. Von computerisierter Entscheidung zur Entscheidungshilfe
  • 3. Erkenne dich selbst – der Anwender als Rechtssetzer und Interpret.
  • 4. Schlussfolgerungen
  • 5. Literatur

1.

Zurück in die Zukunft ^

[1]

In den Anfangstagen der Forschung zu juristischen Expertensystemen war das Bild des Computerrichters eine kraftvolle Metapher, die die Hoffnungen und Ziele der Forschungsgemeinde eindrucksvoll auf den Punkt brachte. Als Bild beeinflusste es nicht nur die Forschung in der juristischen KI, sondern auch die Rechtsphilosophie1 und sogar die populäre Literatur2 . Doch trotz einzelner erfolgversprechender Ergebnisse erwies sich das Ziel, richterliche Entscheidungsfindung verlässlich und robust zu implementieren, als weitgehend unerfüllbar.

[2]

Dem ersten Enthusiasmus folgte in den 80er und 90er Jahren eine Phase der Selbstreflektion, die zu einem zunehmend kritischen Verständnis des computerisierten Entscheidungsfinders im Recht, und zu einer «neuen Bescheidenheit» der Forscher in der juristischen Künstlichen Intelligenz (KI) führte. Sowohl konzeptionell-philosophische als auch methodologische und ethische Einwände lassen im Jahre 2010 jeden Versuch, ein Expertensystems im alten Sinn – das heißt ein Expertensystem als einem vollautomatischen Entscheider juristischer Sachverhalte – vorzuschlagen, als unerwünschten Anachronismus erscheinen.

[3]

Dieser Aufsatz versucht nichtsdestotrotz, eine alternative Lehre aus dieser Diskussion zu ziehen, und ein neues «Business Model» für die computergestützte juristische Interpretation von Normen und automatisierte Entscheidungsfindung vorzuschlagen, die es erlaubt, interessante Fragestellungen und erste Ergebnisse der älteren Forschung in die juristische KI wiederzubeleben, und gleichzeitig die genannten methodologischen und konzeptionellen Schwierigkeiten zu umgehen.

2.

Von computerisierter Entscheidung zur Entscheidungshilfe ^

[4]

Der Computerrichter hätte in der Lage sein müssen, abstrakte Rechtsnormen, die für den Allgemeinfall formuliert wurden, korrekt auf einen spezifischen Einzelfall anzuwenden. Versuche, einen solchen Richter zu entwickeln, stießen schnell auf unüberwindbar scheinende Schwierigkeiten:

  1. Die Vagheit juristischer Texte: Um flexibel zu sein und auch unvorhergesehene Situationen abzudecken, ist die juristische Sprache notwendigerweise zu einem gewissen Grad vage und bedarf der Interpretation im Einzelfall.
  2. Die Werteorientierung des Rechts: Um angemessene Interpretationen zu erhalten, muss der Richter auch Bezug auf die im Recht implizit enthaltenen Werte nehmen. Seine eigenen moralischen, politischen und ethischen Einstellungen spielen dabei eine notwendige, wenngleich problematische Rolle
  3. Die Untrennbarkeit von faktischen und rechtlichen Fragen: Wie genau die Faktenlage beschrieben ist, und welche Beweise erhoben wurden, ist häufig eine Vorentscheidung der rechtlichen Fragestellung.
  4. Die Strittigkeit der Rechtslage: Insbesondere in Berufungsentscheidungen wird oft deutlich, dass es für beide Seiten gute Argumente gegeben hat. Die «eine richtige Antwort», von der wir in naturwissenschaftlichen Disziplinen ausgehen können, ist im Recht nichts mehr als eine philosophische Abstraktion. Wenn dann noch das entscheidende Gericht selber uneins ist und mit einfacher Mehrheit entscheidet, wird klar, dass auch die alternative Lösung vertretbar gewesen wäre. Für die Rechtsinformatik wirft dies zwei Fragen auf:
  1. Wenn selbst Experten rational widersprüchliche Ansichten haben können, was genau ist dann das «Wissen» welches der Computer modelliert, und auf welcher Grundlage treffen wir diese Entscheidung?
  2. Was bedeutet es für die Evaluierung des Computerrichters, unter welchen Bedingungen dürfen wir sagen dass dieser die «richtige» Entscheidung getroffen hat?
[5]

Die allgemeine Forschung in der KI hat für einige dieser Fragen tentative Lösungen entwickelt, die auch in der juristischen KI Forschung rezeptiert wurden. So entwickelte etwa Layman Allen in den 1980ern einige formale Ansätze zur Modellierung der Interpretation juristischer Normen.3

[6]

Doch es zeigte sich auch, dass einige weitere methodologische Besonderheiten der juristischen Domäne es schwierig machen, erfolgreiche Ansätze aus der allgemeinen KI für die Entwicklung praxistauglicher juristischer Systeme heranzuziehen. In der KI werden häufig neuronale Netze verwendet, die es dem Computer erlauben, durch eigenes Lernen vagen Begriffen nach und nach präzisere Bedeutung zu geben.4 Dieser Ansatz hat in Einzelfällen auch durchaus in der juristischen KI Erfolge erzielt, etwa beiSplit-Up und verwandten Systemen.5 Der relative Erfolg vonSplit-Up basiert jedoch auf einigen günstigen Eigenschaften der analysierten Domäne, dem Scheidungsrecht, und lässt sich daher leider nicht verallgemeinern. Zum einen haben wir im Scheidungsrecht eine sehr große Anzahl von Entscheidungen, die als Trainingsbeispiele dienen können. Zum anderen sind es keine ja/nein-Entscheidungen, sondern sie erlauben es dem Richter, das Familieneigentum in einer Vielzahl von Wegen aufzuspalten. Es macht daher Sinn, nach der «durchschnittlichen» Entscheidung zu fragen – welchen Prozentsatz darf etwa jener Partner, der das Sorgerecht bekommt, im Durchschnitt erwarten?

[7]

Dies ist auch einer der Gründe, warumSplit-Up bei all seinem Erfolg stets nur als Entscheidungshilfe, und nicht als wirklicher Computerrichter beschrieben wird. Es ist eine hilfreiche Information, im Voraus zu wissen, was man im Falle eines Rechtsstreites grob zu erwarten hat. Doch dies bedeutet natürlich auch dass die tatsächliche Entscheidung sehr anders ausfallen kann, da sie von einem bestimmten, und nicht einem fiktiven «Durchschnittsrichter» getroffen werden wird. Dies alles erlaubt uns nun, einige weitere methodologische Probleme zu identifizieren:

  1. Die Mehrzahl juristischer Entscheidungen wird nicht veröffentlicht, und steht daher nicht als Trainingsbeispiel zur Verfügung.
  2. In den meisten Rechtsordnungen werden nur wenige Fälle von den höchsten Berufungsgerichten zur Entscheidung angenommen, daher gibt es nur wenige autoritative Trainingsbeispiele die es erlauben, Wortbedeutungen zu disambiguieren.
  3. Selbst in diesen entschiedenen Fällen sind die Begründungen nicht immer klar genug, um Mehrdeutigkeiten auszuschließen, und Rückfragen sind nicht möglich.
[8]

Wir können das Problem der computergestützten juristischen Interpretation daher so formulieren: Juristische Sprache ist mehrdeutig, um sich ändernden Umständen anpassen zu können. Ein guter Test für einen Computerrichter wäre es daher, Entscheidungen der Gerichte vorhersagen zu können. Da aber der empirische Input gering ist, und die Zahl der Variablen hoch – insbesondere die ethischen, politischen und moralischen Überzeugungen der zukünftiger Richter – ist es schwierig, robuste juristische Expertensysteme zu entwickeln. Schwierig ist auch ihre Evaluierung. Was als «richtige» Interpretation zählt, ist häufig umstritten. Dies ist insbesondere bei Anwendungen der Fall, bei denen das Ergebnis eine binäre Entscheidung ist, und daher «Durchschnittswerte» nicht weiter helfen.

[9]

Die Lehren, die die «juristische Informationssystemgemeinde» aus diesen Studien zog, kann als «neue Bescheidenheit» beschrieben werden. Anstatt den Computer Rechtsnormen interpretieren zu lassen um so zu Entscheidungen zu kommen, steht nun die Entwicklung von Beratungs- und Argumentationssystemen im Vordergrund, bei denen ein Großteil der Interpretationsleistung vom Benutzer, häufig ex-post-facto, vorgenommen wird. So kann ein juristisch geschulter Benutzer etwa testen, ob seine Interpretation und Argumentation gewissen formalen Mindestkriterien genügt, etwa minimale Konsistenzbedingungen erfüllt oder alle aufgeworfenen Fragen beantwortet.6

[10]

Mit dieser Umorientierung würden einige der älteren Ansätze zur juristischen KI, trotz ihrer theoretischen Validität, obsolet. Die Frage, die dieser Aufsatz sich stellte, ist, ob wir Anwendungen finden können, die die methodologischen Probleme umgeht, und trotzdem ihren Schwerpunkt in der automatisierten Interpretation von Rechtsnormen hat. Dies könnte zu einer Wiederbelebung dieser älteren Ansätze führen, und ein solcher Ansatz soll im nächsten Abschnitt kurz diskutiert werden.

3.

Erkenne dich selbst – der Anwender als Rechtssetzer und Interpret. ^

[11]

Wie wir gesehen haben, versuchten erste Ansätze zur automatisierten juristischen Interpretation Anwendungen zu entwickeln, die von einer Vielzahl von Unwägbarkeiten beeinflusst werden. Der Gesetzgeber kommuniziert notwendigerweise mit vagen Ausdrücken, die der Interpretation bedürfen. Wie das Parlament selbst seine Gesetze unter neuen, unvorhergesehenen Umständen angewendet hätte, kann aber nur durch einen komplexen, indirekten – und letztendlich nicht eindeutigen – Interpretationsprozess erschlossen werden. Noch schwieriger wird es, wenn wir versuchen, die Werte, Überzeugungen und methodologischen Vorlieben noch unbekannter, zukünftiger Richter als Entscheidungsträger mit zu berücksichtigen. Idealerweise bräuchten wir daher eine Anwendung, bei der wir es nur mit einem einzelnen, uns bereits bekannten Rechtssetzer und Rechtsanwender zu tun haben. Diese Person kann dann systematisch daraufhin befragt werden, wie sie einzelne Begriffe unter hypothetischen Bedingungen gerne verstanden gewusst hätte, was uns potentiell eine unbeschränkte Anzahl von Trainingsbeispielen verschafft, und zudem eindeutige Evaluierungskriterien gibt.

[12]

Als Analogie kann man an den Unterschied zwischen sprecherunabhängiger und sprecherabhängiger Spracherkennung denken. Bei der sprecherunabhängigen Spracherkennung ist das Ziel, Software für beliebige, noch unbekannte Sprecher zu entwickeln, die ohne eine vorhergehende Trainingsphase sofort mit der Benutzung beginnen können. Wo nur ein begrenzter Wortschatz verwendet wird, etwa bei der Telefonauskunft, sind solche Systeme mit Erfolg entwickelt worden. Auch in begrenzter Fachwortschatz kann erkannt werden, doch ist auch in den besten Systemen bislang der Wortschatz auf einige tausend Worte begrenzt.

[13]

Bei der sprecherabhängigen Spracherkennung hingegen kann der Benutzer vor der Verwendung das System auf die eigenen Besonderheiten und Idiosynkrasien trainieren. Einerseits bedeutet dies, dass ein Einsatz mit wechselnden Benutzern nicht möglich ist, andererseits ist der Wortschatz im Vergleich größer als bei sprecherunabhängigen Spracherkennungssystemen.7

[14]

Wenn traditionelle juristische Expertensysteme mit der sprecherunabhängigen Spracherkennung vergleichbar sind – mit all ihren Vor- und Nachteilen – gibt es dann auch Anwendungen die der sprecherabhängigen Spracherkennung entsprechen? Dafür müsste der Benutzer selber Rechtssetzer und Interpret seiner eigenen Normen sein. Die erste Bedingung finden wir natürlich im Privatrecht erfüllt: Durch die Verträge, die wir schließen, die Testamente, die wir schreiben und die Vermögensverfügungen, die wir treffen, erzeugen wir rechtliche Normen, die einerseits uns selbst, andererseits unter gewissen Bedingungen auch andere Personen binden.

[15]

Wie auch der staatliche Gesetzgeber müssen die Normen, die wir generieren, häufig hinreichend allgemein und vage sein, um flexibel genug auf sich ändernde Umstände reagieren zu können. Dies führt natürlich zu den bekannten Problemen, etwa bei der juristischen Vertragsauslegung. Sind nun Situationen denkbar, in denen man nicht selbst zu diesem Interpretationsvorgang beitragen und den Interpretierenden über die eigenen Absichten und Vorstellungen, Wünsche und Vorlieben informieren kann, oder Mehrdeutigkeiten selbst aufklären kann? In einem solchen Fall könnte ein Expertensystem, dass die eigenen Vorlieben ausreichend kennt, statt einem selbst Auskunft geben.

[16]

Im Medizin-, Erb- und Stiftungsrecht finden wir eine eben solche Situation. Durch ein Patiententestament etwa kann man allgemeine Regeln formulieren, wie mit einem im Falle eines Unfalls, der zum dauernden Verlust der Einsichts- und Kommunikationsfähigkeit führt, zu verfahren ist. Im Erb- und Stiftungsrecht kann man bestimmen, dass nach dem eigenen Tod das Vermögen durch eine Stiftung an bestimmte Personen weitergegeben werden soll. In beiden Fällen setzte man selbst abstrakte Regeln in der Hoffnung, alle möglichen Eventualitäten abgedeckt zu haben – doch wie wir alle wissen, ist dies nie mit absoluter Sicherheit möglich.

[17]

Ein Beispiel: In meinem Testament verfüge ich, dass «meine Enkelkinder» mein Haus erben sollen. Nach meinem Tod stellt sich heraus, dass mein Sohn ein uneheliches Kind hatte, welches er vor der Familie geheim gehalten hat. Eine typische Frage des Erbrechts ist, ob dieses Kind mitumfasst gewesen ist, als ich «meine Enkelkinder» schrieb? Ich selbst kann aus offensichtlichen Gründen nicht mehr gefragt werden, und so muss diese Norm genau so interpretiert werden, wie wir auch jedes staatliche Gesetz interpretieren würden. Hinweise über mein Wertesystem und Einstellungen sind dafür natürlich relevant, doch wird jede Entscheidung zumindest teilweise spekulativ sein.

[18]

Was aber wenn ich noch zu Lebzeiten ein Computersystem auf meine persönlichen Werte trainiert hätte? In diesem Fall könnte dieses an meiner Stelle Auskunft geben. Das Training eines solchen neuronalen Netzwerks würde etwa dadurch geschehen, dass mir das System standardisierte Fragen stellt («Natur ist wichtiger als Umwelt – Zustimmung oder Ablehnung?»), oder typische Problemstellungen (Rette ich jemanden den ich gut kenne, oder jemanden der mit mir verwandt ist, aus dem brennenden Haus?) generiert und meine Lösung einfordert. Forschungsergebnisse aus der empirischen Ethikforschung sollten bei der Formulierung geeigneter Fragen hilfreich sein.8 Die Fragen könnten zunehmend detaillierter werden, und ich könnte so viel Zeit auf dieses Training verwenden, wie ich möchte.

[19]

Im zweiten Schritt würde das System dann seine eigenen Lösungen erstellen und mein Feedback erfragen. Aus ablehnender oder zustimmender Antwort kann es weitere Regeln generieren, die meine eigenen Werte und Präferenzen immer genauer modellieren. Wiederum ist es meine Entscheidung, wann ich das System für «gut genug» halte – anders als in der traditionellen juristischen KI ist meine eigene Lösung alleiniger und objektiver Maßstab für die Korrektheit des Systems.

[20]

Einsichten in die logische Struktur der Norminterpretation, wie sie die juristische KI entwickelt hat, würden die formale Struktur eines solchen Systems bilden, die Wissensbasis würde der Anwender erstellen. Zusammen interpretieren beide die vom Anwender erstellen Normen für neue Faktenlagen. Das System wäre erfolgreich, wenn es die Normen der Person zumindest zuverlässiger in deren Sinn interpretiert als ein Dritter, der die Person nicht persönlich kennt und ihr Urteil ausschließlich auf dem Text erschließen kann.

4.

Schlussfolgerungen ^

[21]

Wir haben hier nur in groben Zügen ein «Business Model» für ein juristisches Expertensystem beschrieben, dass zum einen dem alten Traum des computerisierten Norminterpretierers verpflichtet ist, zum anderen aber die methodologischen und praktischen Probleme die dieser Ansatz bisher hatte umgehen kann.

[22]

Aber auch dieser Ansatz wirft einige technische, rechtliche und ethische Fragen ein. Wir vermuten, dass die technischen Fragen vor allem in der Formulierung geeigneter Fragen und Trainingsbeispiele zu suchen sein werden. Diese müssen geeignet sein, die richtigen allgemeinen Regeln zu generieren, um das eigene Wertesystem korrekt zu modellieren. Sichergestellt werden muss auch, dass das System vor Manipulationen durch Dritte geschützt ist, und die Authentizität feststellbar ist – sonst könnte nach dem Tod des Benutzers sein computerisierter Stellvertreter schnell zum Zombie, oder vielleicht «ZombAI», werden.

[23]

Rechtlich stellt sich die Frage, ob solch eine Stellvertretung zulässig sein sollte. Wie o.a. ist ein Erfolgskriterium, dass das System zumindest genauer als eine Dritter die eigenen Wünsche erkennt. Damit wäre das System trotz aller möglicher Bedenken besser als der status quo.

[24]

Doch dies setzt voraus, dass die Erkenntnis des tatsächlichen Willens des Erblassers oder Stifters wirklich das alleinige Ziel dieser Art der Interpretation sein soll. Vielleicht wollen wir als Gesellschaft ja auch nicht, dass die Verstorbenen über das Grab hinaus unseren Handlungsfreiraum zu sehr einschränken können – schließlich sind sie weitaus mehr als wir. Die Aufgabe des Interpretierenden wäre es in diesem Fall auch, einen Ausgleich zwischen dem subjektiven Willen des Verstorbenen und den objektiven Bedürfnissen der Gegenwart zu finden. Je mehr Zeit vergeht, desto größer kann in diesem Fall die Diskrepanz sein. Der hier vorgeschlagene Ansatz friert die ethischen, politischen und gesellschaftlichen Präferenzen des Benutzers sozusagen ein, eine Weiterentwicklung mit der sich ändernden Gesellschaft ist nicht möglich. Für jeden, der sich noch an seine Werte aus Jugendjahren erinnert, sollte dies zumindest Anlass zum Nachdenken sein.

5.

Literatur ^

Bex, F.J.; van den Braak, S.W.; van Oostendorp, H.; Prakken,H., Verheij, H.B. & Vreeswijk,G.A.W. ; Sense-making software for crime investigation: how to combine stories and arguments? Law, Probability & Risk 6 145-168 (2007).
Gordon, T.F. ; Juristische Argumentation als Modellierungsprozess. In Roland Traunmüller and Maria Wimmer, (editors), Informatik in Recht und Verwaltung: Gestern - Heute - Morgen, Lecture Notes in Informatics (LNI), Gesellschaft für Informatik, Bonn, 104–112 (2009).
Junqua, J.-C.; Haton, J. ; Robustness in Automatic Speech Recognition: Fundamentals and Applications, Kluwer Academic Publishers, Berlin (1995).
Lawren, S.; Fong, S. ; Natural language grammatical inference: A comparison of recurrent neural networks and machine learning methods, In: Lecture Notes in Computer Science 1040 33-47 (2006).
Layman E.A. ; Saxon, C.S.; Multiple Interpretations of the Logical Structure of Legal Rules: Impediment or Boon to Legal Expert Systems? In: ICLP/SLP 1609-1623 (1988).
Musschenga, B. ; Was ist empirische Ethik? Ethik in der Medizin 21 187-199 (2009).
Susskind, R , Detmold's Computer Judge Revisited,Modern Law Review , 49 683-684 (1986).
Zeleznikow, J. ; Building Judicial Decision Support Systems in Discretionary Legal Domains. International Review of Computers, Law and Information Technology 14 341-356 (2000).



Burkhard Schafer, Senior Lecturer, Universiy of Edinburgh, School of Law, SCRIPT
South Bridge, EH8 9YL Edinburgh, Schottland
b.schafer@ed.ac.uk;www.law.ed.ac.uk/staff/burkhardschafer

  1. 1 Susskind, R , Detmold's Computer Judge Revisited,Modern Law Review 49, 683-684 (1986).
  2. 2 http://theinfosphere.org/Computer_Judge , last accessed: 05 February 2010.
  3. 3 Layman E.A.; Saxon, C.S., Multiple Interpretations of the Logical Structure of Legal Rules: Impediment or Boon to Legal Expert Systems? In: ICLP/SLP 1609-1623 (1988).
  4. 4 Lawren, S.; Fong, S ., Natural language grammatical inference: A comparison of recurrent neural networks and machine learning methods, In: Lecture Notes in Computer Science 1040 33-47 (2006).
  5. 5 Zeleznikow, J., Building Judicial Decision Support Systems in Discretionary Legal Domains. International Review of Computers, Law and Information Technology 14 341-356 (2000).
  6. 6 Siehe etwaGordon, T.F. ; Juristische Argumentation als Modellierungsprozess. In Roland Traunmüller and Maria Wimmer, (editors), Informatik in Recht und Verwaltung: Gestern - Heute - Morgen, Lecture Notes in Informatics (LNI), pages. Gesellschaft für Informatik, Bonn, 104–112 2009;Bex, F.J.; van den Braak, S.W.; van Oostendorp, H.; Prakken,H., Verheij, H.B. & Vreeswijk,G.A.W.; Sense-making software for crime investigation: how to combine stories and arguments? Law, Probability & Risk 6 145-168 (2007).
  7. 7 Junqua, J.-C.; Haton, J.; Robustness in Automatic Speech Recognition: Fundamentals and Applications, Kluwer Academic Publishers, Berlin (1995).
  8. 8 Musschenga, B., Was ist empirische Ethik? Ethik in der Medizin 21 187-199 (2009).