Jusletter IT

LexWork und LexFind

  • Authors: Marius Roth / Harald Hoffmann / Friedrich Lachmayer
  • Category: Short Articles
  • Region: Austria
  • Field of law: Legal Information
  • Collection: Conference proceedings IRIS 2009
  • Citation: Marius Roth / Harald Hoffmann / Friedrich Lachmayer, LexWork und LexFind, in: Jusletter IT 1 September 2009
Die Qualität ist ein philosophischer Begriff, der schon in den Kategorien des Aristoteles vorkommt. Ebenso findet sich die Qualität in der Dialektik, etwa im Übergang von der Quantität zur Qualität. Die Qualität ist aber auch aus der Produktion bekannt. Dort ist Qualität auf Messung und auf Kennzahlen aufgebaut. In der Rechtsordnung fand um die Jahrtausendwende ein Paradigmenwechsel von der bis dahin vorherrschenden vertikalen Sichtweise (zB Stufenbau der Rechtsordnung) zu einer mehr workflow-orientierten und hiermit gleichsam horizontalen Betrachtungsweise statt. Damit wird die bisherige Interpretation der juristischen Texte als «Rechtsakt» durch eine informationstechnische Betrachtungsweise als «Rechtsdokument» abgelöst bzw ergänzt. Das Rechtsdokument wiederum kann als Produkt gesehen werden. Mit der Anwendung des Produktbegriffes werden aber auch die Kriterien der Qualität anwendbar. Zu unterscheiden ist freilich zwischen der Qualität des Produktionsprozesses einerseits und den inhaltlichen Qualitätskriterien andererseits. Beide können in der Produktion von Recht Anwendung finden. In dem Beitrag werden einige diese Qualitätskriterien vorgestellt und analysiert.

Inhaltsverzeichnis

  • 1. Traditionelle vertikale Kommunikation des Rechts
  • 2. Paradigmenwechsel von der vertikalen zur horizontalen Kommunikation
  • 3. Paradigmenwechsel vom Rechtsakt zum Produkt
  • 4. Rechtstheorie als Input
  • 5. Paradigmenwechsel von ex post auf ex ante
  • 6. Automatischer und semiautomatischer Workflow
  • 7. Metadaten
  • 8. Formale und inhaltliche Standards
  • 9. Implizite und explizite Semantik

1.

Traditionelle vertikale Kommunikation des Rechts ^

[1]

Die traditionelle Kommunikation des Rechts ist vertikal und in gewisser Weise fiktiv. Sämtliche der traditionellen Rechtsakte wie sie sich in den Rechtsordnungen finden, zB Verfassung, Gesetz, Verordnung, Urteil und Bescheid, sind kommunikativ angelegt. Abgesehen von den Urteilen und den Bescheiden wird auf ein tatsächliches Erreichen der Adressaten jedoch nicht allzu viel Wert gelegt.1

[2]

Diese Rechtsakte haben gemeinsam, dass sie über eine reale Erscheinungsform verfügen und andererseits von ihrem Inhalt her von der Rechtsordnung standardisiert sind. Die Zeichenträger der traditionellen Rechtsakte können ganz verschieden sein. Meist handelt es sich um Texte, die in Papierform vorliegen. Genau das ist aber auch der Ansatzpunkt für die neue Entwicklung verursacht durch den Einsatz der IKT.

2.

Paradigmenwechsel von der vertikalen zur horizontalen Kommunikation ^

[3]

Mit dem Einsatz der IKT im Recht ist ein Paradigmenwechsel verbunden. Dieser bringt eine gewisse Art von Negation mit sich, doch ist dies keine logische Negation, sondern vielmehr eine dialektische, eine Art von Transformation, eine Art von Metamorphose. Dadurch entsteht Kontinuität, aber freilich nicht linear.

[4]

Es ist anzunehmen, dass eine ganze Reihe von bisherigen Merkmalen auch in der neuen IKT-Version zum Einsatz kommt. Das traditionelle Wissen ist daher auch nach dem Paradigmenwechsel weiterhin beachtenswert. Um das Beispiel der Autoentwicklung zu nehmen: am Anfang wurden die Autos in verschiedenen Komponenten den Fuhrwerken nachgebildet. Mit der Zeit setzte sich eine eigene Konzeption durch. Es geht aber auch darum, die alten Funktionalitäten einerseits kritisch zu hinterfragen und andererseits zu sichern. Dies war der Fall bei dem Aufbau der Judikaturdokumentation des RIS. Die Gerichte besaßen sogenannte Zettelkasten, wo auf Karteikarten die Leitsätze der bisherigen Judikatur eingetragen waren. Als die neue e-Dokumentation erstellt wurde, gab es einige Zeit einen Parallelbetrieb. Es stellte sich dabei die Frage, was übernommen werden soll und was nicht und was neu dazu kommt.

3.

Paradigmenwechsel vom Rechtsakt zum Produkt ^

[5]

Mit dem Kontextwechsel auf den Workflow ist auch eine Änderung des traditionellen Rechtsaktbegriffes in Richtung auf ein arbeitsteilig hergestelltes Produkt verbunden.

[6]

Das ist in einem Zusammenhang mit einem Qualitätsbegriff zu sehen. Die Qualität besteht aus funktionellen Elementen, wie zB Accessability über das Internet, Raumdistanzen sind nicht mehr relevant, aber auch die Zeitdistanzen können in Richtung Vergangenheit überbrückt werden.

[7]

Zur Schaffung von Qualität werden Verfahren festgelegt und zwar nicht nur der Produktion sondern auch der Dokumentation. Das qualitative Produkt ist das Ergebnis. Das sagt nichts über den Inhalt aus. Auf die Gesetzesproduktion angewendet bedeutet dies, dass die Gesetze inhaltlich ganz schlecht, «ungerecht» sein können, aber es könnte hervorragend dokumentiert sein, wie sie zu Stande gekommen sind.

[8]

Bei ISO 9000 geht es um das Verfahren und ins besondere um die Reproduzierbarkeit des Ergebnisses bzw. des Verfahrens selbst. Dieser Qualitätsbegriff sagt noch nichts Inhaltliches über das Produkt aus. Die inhaltliche Qualität ist ein zweites Thema. ISO 9000 ist auch unabhängig vom Einsatz der IKT zu sehen. Aber meist sind traditionelle Systeme ohne äußeren Anlass nicht sehr reformfreudig. IKT als äußerer Anlass kann ein Katalysator der Reform und damit auch der Qualitätsverbesserung sein.

[9]

Im Vergleich zu den Einzelanfertigungen der früheren Entwicklungsstufen bringt das prozedurale Qualitätskonzept zwar nur formale Qualität und nicht inhaltliche, doch die Einhaltung von Standards und die Garantie für die Ausstattung bestimmter Eigenschaften für jedes Produkt sind auch nicht zu unterschätzen.

[10]

Qualität ist im Gegensatz von Einzelproduktion vs. Serienproduktion zu sehen. Die Serienproduktion ist in der Ausführung perfekt, die Qualität ist bei allen Produkten gleich, so wie sie eben am Anfang definiert wurde. Das Ergebnis des prozeduralen Produktbegriffes sind schließlich auch Produkteigenschaften: Ein Instant-Getränk zB löst sich leichter auf, braucht nicht aufgekocht werden.

[11]

Mit dem so beschriebenen Produktbegriff eröffnen sich auch hinsichtlich der Qualität des Rechtes neue Möglichkeiten. Es lässt sich auch ein Rechtsakt «produzieren». Damit bietet sich ein ganzer Set von produktzentrierten Begriffen an, der Produktbegriff muss nicht für die Rechtsakte neu erfunden werden.

[12]

Meist wird ein Produkt weiter verwendet, insbesondere zum Konsum aber auch für die Weiterinvestition, daher auch das Recht wird «verwendet», «weiterverwendet, zB ein Gesetz soll verstanden werden, wird angewendet, das ist auch eine Art von «Konsum» des Gesetzes. Wenn man die e-Materialien dazuspielt, dann wird das Gesetz schon leichter konsumierbar.

[13]

Nicht zu unterschätzen sind die Beschleunigung des Verfahrens ebenso wie die Transparenz jedes Arbeitsschrittes. Damit wird das Verfahren rekonstruierbar.

[14]

Durch die Leistungsfähigkeit des Mediums werden aber manche bisherige Techniken nicht mehr ausreichend leistungsfähig, etwa Ablage und Suchen. Musste man bisher den Akt finden, um auf den Inhalt zugreifen zu können, wird der Inhalt des Rechts nunmehr unmittelbar zugänglich.

4.

Rechtstheorie als Input ^

[15]

Die Neukonstruktion des Workflows baut unter anderem auch auf Ergebnissen einer modern konzipierten Rechtstheorie auf. Insbesondere geht es dabei um den Einsatz der Rechtslogik in der Rechtstheorie. Diesbezüglich sind zwei Phasen zu unterscheiden:

[16]

Die erste Phase der IKT bezieht sich auf die formellen Aspekte der Produktion und Bearbeitung der Rechtsdokumente.

[17]

In einer zweiten Phase geht es um die semantische Komponente. In diesem Zusammenhang wird die Rechtstheorie besonders gefordert sein, denn rechtliche Ontologien kann man ohne spezifisch rechtliches Wissen kaum konstruieren. Das Ziel auch dieser zweiten Phase ist es, die Semantik der Automatisierung zugänglich zu machen. Eine Auswirkung der erhöhten Nachfrage nach Rechtstheorie ist es, dass die Weiterentwicklung der Rechtstheorie in einer globalen Perspektive nachhaltig stimuliert werden wird.

[18]

Das Aufzeigen der inhaltlichen Kontexte des Fallrechts in Verbindung zu etwaigen generellen Rechtstexten einerseits wie die dynamischen Kommentierungen der sich ändernden Rechtstexte andererseits stellen weitere Herausforderungen sowohl für die Rechtstheorie als auch für die Informatikentwicklung dar.

[19]

Der Einsatz der IKT im Recht bringt daher nicht nur einen Druck in Richtung der Qualität der rechtlichen Produkte mit sich sondern ist auch ein wichtiger Impuls für die Qualität der Rechtstheorie, die dabei zum Einsatz kommt. Deutliche Anzeichen finden sich in den Publikationen zum Thema von AI und Recht, in denen zunehmend formale Methoden zur Beschreibung und Modellierung rechtlicher Zusammenhänge verwendet werden.

5.

Paradigmenwechsel von ex post auf ex ante ^

[20]

Es erweist sich unter dem Gesichtspunkt des Workflows notwendig, die Produkte in Arbeitsschritten zu erstellen. Mit jedem Arbeitsschritt erhält das Produkt bereits die Informationen, die in diesem Arbeitsschritt anfallen. Damit ergibt sich ein Paradigmenwechsel von ex post auf ex ante.

[21]

Auf die professionellen Rollen bezogen bedeutet dies, dass die Tätigkeiten der Dokumentalisten zunehmend auf die Tätigkeiten der Legisten verlagert werden.

[22]

Für die Qualität relevant ist, dass die ex ante Interpretationen der Legisten in gewisser Weise authentisch sind, zum Unterschied von den ex post Interpretationen der Dokumentalisten.

[23]

Derzeit gestalten die traditionellen Legisten die Entwürfe nach ihren bisherigen Erfahrungen und impliziten legistischen Standards. Teile der Entwurfsarbeit lassen sich sicher standardisieren, indem man Module schafft, etwa im Kontext von legistischen Editoren. Damit erreicht man einerseits eine Unterstützung der legistischen Arbeit, andererseits aber auch eine Homogenisierung und Standardisierung.

6.

Automatischer und semiautomatischer Workflow ^

[24]

Eine Ausgangsthese kann es sein, dass Automatisierung Qualitätsverbesserung mit sich bringt. Der Automat macht, wenn richtig programmiert, keine Fehler, er addiert zB nicht falsch. Dadurch werden stupide fehleranfällige Tätigkeiten fehlerfrei. Die Fehlerfreiheit ist eine Qualitätsverbesserung. Sie hat jedoch den vermeintlichen Nachteil, dass das System starr ist. Doch der konsequente Einsatz von Logik bringt es mit sich, dass die Folgerungen richtig sind.

[25]

Entscheidend für das Gelingen eines solchen Projektes ist es auch, dass vorher alles Relevante analytisch abgebildet wird, dass das oft immobile Umfeldes mit einzubeziehen ist, schließlich bestehen Abwehrmechanismen gegen die neue Methoden, die neue Eliten mit sich bringen. Die Angst vor dem Generationensprung ist nicht zu unterschätzen.

[26]

Bei der semiautomatischen Entwurfsgestaltung hingegen geht es um Bausteine, Editoren, Entwurfsvorlagen, eFormulare, um die Unterstützung des Legisten. Ziel ist die partielle Entlastung der Schreibenden, das Abnehmen des Formatierens, um den Einsatz von Formatvorlagen. Der Mustergesetzestext dient zum weiteren Ausfüllen, der Inhalt muss noch hineinkommen, doch die Metadaten sind schon da.

[27]

Auf der Oberfläche wohl noch langfristig das Ritual der Gesetzgebung gleich bleiben. Dennoch werden zentrale Arbeitsschritte automatisiert und damit wird in einem hohen Maß Rationalität eingebracht, welche die bisher vorhandenen traditionellen und zugleich irrationalen Komponenten ersetzt. Das wirkt sich direkt auf die Qualität der Gesetzgebungsprodukte aus, indem systematisch Fehler vermieden werden.

7.

Metadaten ^

[28]

Metadaten sind meist Zusatzinformationen oder explizit gemachte semantische Inhalte. Um einen automatischen Workflow zu gestalten, sind Metadaten erforderlich. Metadaten können auch für andere Zwecke verwendet werden, etwa für eine explizite Semantik bzw für Kommentare.

[29]

In einer Zwischenphase wird dies durch die Anreicherung mit Metadaten möglich sein, deren Erzeugung ein hohes Maß an Fachwissen voraussetzt. Das ist ein Vorgang ex ante. In einer späteren Phase sollte es zusätzlich möglich sein, direkt aus dem Inhalt semantische Zuordnungen herzustellen und somit die inhaltliche Bearbeitung der Dokumente weiter zu automatisieren. Ein solches Anwendungsfeld könnte die automatische Erstellung von Zusammenfassungen (Synopsen) im Rahmen der parlamentarischen Begutachtungen sein.

[30]

Die Metadaten sind auch in Verbindung mit der Frage der Granularität zu sehen, nämlich welche legistische Einheiten als dokumentalistische Einheiten zu nehmen sind. Wird allzusehr auf die untere Ebene der legistischen Einheiten gegangen (etwa Absatz oder Satz oder sogar Worte) dann erhöht sich die Anzahl der Metadaten und der ursprüngliche Vorteil der leichterten Suche wird zum recherchehindernden Ballast.

8.

Formale und inhaltliche Standards ^

[31]

Ein Mittel, um Qualität zu erreichen, ist die Verwendung von Standards. Es gibt auf diesem Weg in der Praxis der Rechtsdokumentation zwei Abschnitte: Zuerst beschäftigt man sich mit der formalen Qualität (Gliederungs-XML im RIS und eRecht). Sodann tritt das Thema einer zusätzlichen inhaltlichen juristische Strukturierung auf, etwa durch Begriffe und normative Strukturen.

[32]

Zunächst geht es wie gesagt um formale Strukturierungen, etwa um ein formales XML (wie Gliederung in §§), das den Entwurf im eRecht und im RIS strukturiert, aber inhaltlich ist damit noch nichts gesagt. Bei RIS und CELEX gab es schon von Anfang ein solches Datenmodell. Der Trend geht jedoch zur Ausweitung der Strukturierung auf die inhaltliche juristische Semantik. Derzeit ist die formale Strukturierung zwar Tätigkeit der Dokumentalisten, doch sollte das in der Zukunftsperspektive schrittweise zum Legisten (ex ante) verlagert werden.

[33]

Ziel ist das Ausweiten der Strukturierung eines Dokumentes durch weitere Gliederungselemente. Diese neuen Gliederungselemente sollten eine semantische Bedeutung haben: Zu dem formellen Paragraphennetz wird über den Text noch zusätzlich ein semantisches Netz darüber gelegt, das aber auch seine formellen Eigenschaften hat. Diese semantische Strukturierung könnte gesondert verwendet werden. Ob das mit oder ohne XML geschieht, ist nicht entscheidend. Es könnte sich auch um verbundene Hintergrundstrukturen handeln

[34]

Albrecht Berger hatte in einer Sitzung der EG-Ratsarbeitsgruppe Rechtsinformatik einmal gesagt, dass der Wert einer Datenbank in ihrer formalen Strukturierung liegt. Das heißt, dass man auch Jahre später mit den strukturierten Daten etwas anfangen kann. Beim RIS trifft das ebenso zu wie bei dem in der Zwischenzeit bereits transformierten Datenbestand von CELEX.

9.

Implizite und explizite Semantik ^

[35]

Bei der impliziten Semantik werden die Texte mit elaborierten Methoden der Sprachanalyse hinterfragt. Bei dem derzeitigen Stand dieser Tools sind bereits bemerkenswerte Ergebnisse vorzuweisen. Hier ist auf die wegweisenden Arbeiten von Erich Schweighofer hinzuweisen. Insbesondere im Bereiche der EU ist die Mehrsprachigkeit unter diesem Gesichtspunkt ein Vorteil, weil parallele Sprachsysteme eingesetzt werden können.

[36]

Für die zukünftige Entwicklung der Legistik ist jedoch auch die explizit gemachte Semantik interessant. Man kann die elaborierten ex-post-Recherchemethoden der Sprachanalyse mit den oben erwähnten semantischen ex-ante-Strukturierungen kombinieren. Eine zentrale Schichte des Rechts sind dabei die Rechtsbegriffe. Es ist anzunehmen, dass schon bei einem mittelfristigen Einsatz von IKT die professionellen Kreise bewusster mit den Rechtsbegriffen umgehen werden.

[37]

Indem die Semantik insbesondere im Wege von ex-ante-Metadaten bewusst gemacht wird, kommt es zu einer leistungsfähigen Verbindung von Rechtsdokumentation und juristischem Wissen. Im Spektrum der neuen Formen der benutzerfreundlichen Wissensrepräsentation könnte auch die Rechtsvisualisierung ihren Platz haben.



Harald Hoffmann, METADAT GmbH, Simmeringer Hauptstrasse 24, A-1110 Wien
Friedrich Lachmayer, Universität Innsbruck, Innrain 52, A-6020 Innsbruck

  1. 1 Die folgenden Ausführungen wurden im Vortrag «ITC and Quality of Legal Information» bei der Tagung «Law via the Internet» in Florenz am 31. Oktober 2008 vorgestellt und beruhen auf Analysen der Projekte RIS und eRecht. Im Hinblick auf den Stellenwert des Beitrages als Ergebnis interner Trendeinschätzungen wurde auf Literaturangaben verzichtet.