Jusletter IT

Eine Modellierungsmethode zur Visualisierung und Analyse von Gesetzestexten

  • Authors: Arzo Nabizai / Hans-Georg Fill
  • Category: Articles
  • Region: Austria
  • Field of law: Legal Visualisation, Multisensory Law
  • Collection: Conference Proceedings IRIS 2017
  • Citation: Arzo Nabizai / Hans-Georg Fill, Eine Modellierungsmethode zur Visualisierung und Analyse von Gesetzestexten, in: Jusletter IT 23 February 2017
Die Verständlichkeit von Gesetztestexten hängt wesentlich von ihrem Aufbau und ihrer strukturellen Gliederung ab. Dies gilt ebenso für die maschinen-gestützte Verarbeitung und Analyse der Texte. Im vorliegenden Beitrag wird eine Modellierungsmethode zur automatischen Generierung von visuellen Modellen aus Gesetztestexten des österreichischen Rechtsinformationssystems (RIS) vorgestellt. Diese können in weiterer Folge als Grundlage für Analysen der Gesetztestexte dienen. Die Methode wurde dabei in einem ersten Schritt anhand des österreichischen Mietrechtsgesetzes erarbeitet und evaluiert.

Inhaltsverzeichnis

  • 1. Motivation
  • 2. Grundlagen
  • 2.1. Syntax und Semantik in der Modellierung
  • 2.2. Algorithmen zur automatischen Generierung von Modellen
  • 2.3. Das österreichische Rechtsinformationssystem
  • 3. Automatische Generierung von visuellen Gesetzesmodellen
  • 3.1. Metamodell der Methode
  • 3.2. RIS-XML als Ausgangsformat
  • 3.3. Konzepte zur Satzgrenzenerkennung
  • 4. Technische Umsetzung und Evaluation
  • 4.1. Implementierung der Modellierungsmethode
  • 4.2. Evaluation
  • 5. Conclusio und Ausblick
  • 5.1. Danksagung
  • 6. Literatur

1.

Motivation ^

[1]
Die Analyse von Gesetzestexten gestaltet sich hinsichtlich ihres Aufbaus und ihrer sprachlichen Ebene als sehr komplex. Sowohl die syntaktische als auch die semantische Komplexität erschweren das Verständnis von Gesetzestexten erheblich. Unweigerlich tritt die Frage auf, ob Gesetzestexte in ihrer textuellen Form einen adäquaten Überblick liefern und somit optimal zum Verständnis des Inhalts beitragen. Vor allem für Laien stellt dieser Aspekt eine große Herausforderung dar. Für eine maschinen-gestützte semantische Verarbeitung und Analyse der Texte ist eine exakte Kenntnis der Syntax von Nöten, weshalb eine formale Beschreibung des syntaktischen Aufbaus von Vorteil ist. Eine visuelle Modellierung kann helfen diesen syntaktischen Aufbau besser darzustellen.
[2]

Ein Beispiel aus dem österreichischen Mietrechtsgesetz (MRG) zeigt die beschriebenen Schwierigkeiten auf: «§ 6. (1) Unterläßt der Vermieter durchzuführende Erhaltungs- oder Verbesserungsarbeiten, so hat ihm das Gericht (die Gemeinde, § 39) auf Antrag die Vornahme der Arbeiten binnen angemessener, ein Jahr nicht übersteigender Frist aufzutragen. Sind darunter Arbeiten, die nach § 3 Abs. 3 Z 2 lit. a bis c vorweg durchzuführen sind, so ist die Durchführung dieser Arbeiten vorweg aufzutragen; hinsichtlich solcher Arbeiten gilt Abs. 4 nicht. Zur Antragstellung sind berechtigt

  1. die Gemeinde, in der das Haus gelegen ist, im eigenen Wirkungsbereich und jeder Hauptmieter des Hauses hinsichtlich der im § 3 Abs. 2 Z 1 bis 4 und 6 genannten Erhaltungsarbeiten,
  2. die Mehrheit der Hauptmieter – berechnet nach der Anzahl der Mietgegenstände – des Hauses hinsichtlich der im § 3 Abs. 2 Z 5 genannten Erhaltungsarbeiten und der nützlichen Verbesserungen nach Maßgabe des § 4 Abs. 1 und 2 [...]».
[3]
Im vorangehenden Abschnitt sind die zahlreichen Verweisungen auf andere Gesetzesstellen hervorgehoben. Durch diese wird es dem Leser des Gesetzes erschwert einen Überblick zu bekommen, da auch andere Gesetzesteile beachtet und analysiert werden müssen. Desweitern führen lange Textpassagen und Verschachtelungen von Sätzen zur weiteren Reduzierung des Verständnisses.
[4]
In der Rechtsvisualisierung gilt die visuelle Modellierung bereits als vielversprechender Lösungsansatz. Schon im Mittelalter benutzte man in historischen Rechtsbüchern Bilder zur Veranschaulichung von Rechtslagen. Diese fokussierten allerdings auf die Semantik der Rechtsnormen, welche ohne Zuhilfenahme eines Experten und dessen Wissen nicht aussagekräftig wären. Die visuelle Modellierung adressiert hingegen Rechtsexperten als auch Laien gleichermaßen [Fill/Haiden 2016]. Dabei sind der bessere Überblick aufgrund des visuellen Aspekts und die damit einhergehende leichtere Verständlichkeit der Gesetzeslage zu nennen. Weiterhin wird vor allem für Rechtsexperten die Änderung bestehender Gesetze erleichtert und die Gestaltung neuer Gesetze optimiert.
[5]
In Anbetracht dieser Problemstellung stellt sich zunächst die Frage nach einer adäquaten visuellen Modellierungsmethode, welche den syntaktischen Aufbau von Gesetzen darstellt. Zudem sollte die Korrektheit des Aufbaus sichergestellt werden. Dieser Aspekt lässt sich mit einer automatischen Generierung von Darstellungen des syntaktischen Aufbaus von Gesetzen realisieren. Ziel ist, die Struktur der Gesetze mit Hilfe einer Modellierungsmethode soweit abzudecken, dass sich die Analyse und das Verständnis der Gesetzestexte für Laien weniger mühsam und zeitaufwendig gestaltet. Ebenso kann so die Basis für weitere maschinelle Auswertungen, z.B. zur semantischen Verarbeitung der Gesetzesinhalte bereitgestellt werden.
[6]
Hierzu wird in Kapitel 2 auf die Grundlagen eingegangen, um im darauffolgenden Kapitel 3 im Detail die automatische Generierung zu erörtern. Abschließend wird die technische Umsetzung beschrieben, Evaluationsergebnisse vorgestellt und ein Ausblick für zukünftige Forschungen gegeben.

2.

Grundlagen ^

[7]
Um ein solides Verständnis zu vermitteln werden zunächst einige grundlegend relevante Aspekte des vorliegenden Beitrags genauer erläutert. Dazu zählen die Grundlagen einer Modellierungssprache, bekannte Algorithmen zur automatischen Generierung von Modellen und das österreichische Rechtsinformationssystem als Ausgangspunkt für weiterführende Implementierungen.

2.1.

Syntax und Semantik in der Modellierung ^

[8]

Eine Modellierungsmethode ist nach Karagiannis und Kühn [2002] in zwei Komponenten geteilt: die Modellierungstechnik und den Mechanismen und Algorithmen. Dabei beinhaltet die Modellierungstechnik eine Modellierungssprache, bestehend aus der Notation, Syntax und Semantik, und eine Vorgehensweise. Diese Komponenten und deren Beziehungen zueinander sind in Abbildung 1 dargestellt.

[9]
Die Beschreibung der Syntax und Semantik von Modellierungssprachen kann auf drei verschiedene Arten erfolgen: der formalen, semi-formalen oder informellen [Bork/Fill 2014]. Die Syntax und Semantik einer Modellierungssprache werden beim formalen Ansatz mit Hilfe von Metamodellen oder mathematischen Notationen beschrieben. Beim informellen hingegen in natürlicher Sprache. Eine semi-formale Herangehensweise bedeutet eine Kombination von formalen und informellen Eigenschaften, wie sie auch im vorliegenden Beitrag zum Einsatz kommt.

2.2.

Algorithmen zur automatischen Generierung von Modellen ^

[10]
Um aus einem vorhandenen Daten- und Informationsbestand ein adäquates Modell automatisch zu generieren, wurde zunächst eine Analyse verschiedener Herangehensweisen und Algorithmen durchgeführt. Ein Bereich, der sich wesentlich mit dieser Problematik beschäftigt, ist die Informationsvisualisierung, welche zur Aufgabe hat, abstrakte Daten in einer menschenlesbaren Form darzustellen. Es gibt zahlreiche Techniken der Informationsvisualisierung, darunter beispielsweise «Probabilistic Graphical Models». Diese Technik erzeugt aus unbekannten Daten einen Graphen mit Zufallsvariablen als Knoten, welche mit Kanten verbunden sind, falls sie voneinander abhängig sind [Koller/Friedman 2011]. Auch die deskriptive Statistik ist hier zu erwähnen, mit welcher sich große Datenmengen visuell darstellen und auswerten lassen. Dazu zählen Häufigkeitstabellen oder Histogramme. Ein weiterer Ansatzpunkt ist, die vorhandenen Daten in einem Metamodell zusammenzufassen und anhand dessen visuelle Modelle automatisch zu generieren [Falleri et al. 2008]. Dieses Metamodell gibt somit die Modellstruktur und einen Teil der Semantik der Elemente vor. In der Informationsvisualisierung als auch in der deskriptiven Statistik ist hingegen typischerweise kein Metamodell vorhanden.
[11]
Im vorliegenden Ansatz liegen die Vorteile eines Metamodells für eine Entwicklung von domänenspezifischen Algorithmen auf der Hand. Zum einen ist durch den Aufbau von Gesetzestexten die Struktur klar vorgegeben, zum anderen muss gewährleistet werden, dass die Algorithmen für alle Gesetze in der gleichen Weise anwendbar sind. Aufgrund dessen wird die automatische Generierung der Modelle mit Hilfe eines eigens entwickelten Metamodells umgesetzt.

2.3.

Das österreichische Rechtsinformationssystem ^

[12]
Das österreichische Rechtsinformationssystem (RIS), welches im Jahre 1980 entstand und 1997 online gestellt wurde, ist eine Dokumentation des österreichischen Rechts und stellt eine kostenlose Informationsquelle über das Recht für Bürgerinnen und Bürger zur Verfügung [Stöger/Weichsel 2008; BKA 2016]. Es erleichtert durch einfache und kostenfreie Abfragemöglichkeiten den Zugang zum Recht. Die Daten des RIS sind über das Open Government Data (OGD) Portal abrufbar. Das Portal (https://www.data.gv.at; alle Internetquellen zuletzt abgerufen am 2. Januar 2017) stellt Bürgerinnen und Bürger «von der Verwaltung gesammelte Daten, jedoch keine personenbezogenen» [BKA 2016] zur freien Verfügung bereit. Das Bundeskanzleramt leistet seinen Beitrag zum OGD Portal u.a., indem es eine technische Schnittstelle zu den Daten des RIS anbietet [Weichsel 2014]. Für die automatische Generierung von visuellen Modellen aus Gesetzestexten wurden Gesetztestexte über das OGD Portal im XML-Format abgefragt. Diese XML-Datei, im folgenden RIS-XML genannt, dient als Ausgangspunkt für weiterführende Verarbeitungen.

3.

Automatische Generierung von visuellen Gesetzesmodellen ^

3.1.

Metamodell der Methode ^

[13]

Eine semi-formale Herangehensweise ermöglicht es, die Syntax der Modellierungssprache durch ein Metamodell und dessen Semantik in natürlicher Sprache zu definieren. Das Metamodell enthält die in einem Modell möglichen Elemente und ihre Relationen zueinander und ist in Abbildung 2 dargestellt.

3.2.

RIS-XML als Ausgangsformat ^

[14]
In den Legistischen Richtlinien von 1990 ist festgelegt wie Gesetze aufgebaut und gegliedert sein müssen. Demnach sind Gesetze und Verordnungen in Einheiten zu gliedern. Diese Einheiten sind in folgender Reihenfolge hierarchisch aufzubauen: Teil, Hauptstück, Abschnitt, Paragraph, Absatz, Ziffer, Buchstabe/Litera [BKA 1990]. Die letzten drei Gliederungsebenen Absatz, Ziffer und Buchstabe enthalten Sätze oder Teilsätze, welche die eigentliche Rechtsvorschrift beinhalten. Die Struktur des RIS-XML hingegen ähnelt diesem hierarchischen Aufbau nicht, sondern ist listenartig aufgebaut.
[15]
Die kleinste Gliederungsebene im RIS-XML ist die des Buchstaben/Litera. Sätze und Teilsätze besitzen demnach keine eigenen XML-Tags, Referenzen auf andere Gesetzesteile in Gesetztexten sind jedoch auf Satzebene zu finden. Demnach wurde für die Visualisierung der Struktur der Gesetze zum Ziel gesetzt die Abbildung auf Satzebene zu realisieren. Somit sind zum einen einfachere und schnellere Änderungen und Analysen und zum anderen Referenzen auf Satzebene möglich.

3.3.

Konzepte zur Satzgrenzenerkennung ^

[16]
Die herausfordernde Aufgabe besteht nun darin, im Fließtext der einzelnen XML-Abschnitte die Satzpunkte zu erkennen und somit Sätze zu identifizieren. Für diese Problematik kommen einige mögliche Lösungswege in Frage.
[17]
Es existieren zahlreiche Werkzeuge zur maschinellen Verarbeitung von natürlicher Sprache. Der Fachbegriff für diesen Bereich nennt sich Natural Language Processing (NLP) und beschäftigt sich u.a. mit der Erkennung von Wortstämmen oder grammatikalischen Satzbausteinen, vgl. dazu im juristischen Kontext [Winiwarter/Schweighofer 1993; Merkl et al. 1994; Schweighofer 1999]. Letzteres kann für die Problemstellung des vorliegenden Beitrags von Nutzen sein, indem die Satzbestandteile markiert werden. Um dann anschließend Sätze zu erkennen, bedarf es zunächst einer Identifizierung der möglichen Satzbauten. Neben den NLP Werkzeugen können auch mit Hilfe von regulären Ausdrücken Satzmuster formal abgebildet werden. Bei beiden Vorgehensweisen ist zunächst eine Analyse der Gesetzestexte notwendig, sowohl für die Entwicklung von Satzbau- als auch Satzmusterregeln. In der Hinsicht ist eine manuelle Markierung der Sätze im RIS-XML von Vorteil, da diese nach einer automatisierten Satzmustererkennung zur Evaluierung, d.h. dem Vergleich der Ergebnisse dienen kann. Denn speziell im Bereich von Gesetzestexten ist eine Exaktheit der Ergebnisse sicherzustellen, sodass kein Interpretationsspielraum entsteht. Heuristische Verfahren wie sie üblicherweise eingesetzt werden – vgl. z.B. [Winiwarter/Schweighofer 1993] – erscheinen daher selbst bei geringer Fehlerwahrscheinlichkeit für die Bereitstellung von rechtlich verbindlichen Informationen wie im RIS nicht geeignet.
[18]
Eines der bekanntesten NLP Werkzeuge ist der Stanford NLP Tagger von der Universität Stanford. Dieser beinhaltet alle relevanten Bestandteile zur Analyse der natürlichen Sprache, ist jedoch auf die englische Sprache konzipiert und daher nur sehr bedingt für deutsche Rechtstexte geeignet. Vor allem Abkürzungen der deutschen Sprache stellen Hindernisse für die korrekte Markierung und Erkennung von Satzgrenzen dar. Reguläre Ausdrücke sind hingegen vom Benutzer zu definieren und können für spezifische Fälle eingesetzt und gegebenenfalls erweitert werden. Letzteres bietet demnach die Möglichkeit zu spezifischen Anpassungen auf österreichische Gesetzestexte, sodass dieser Ansatz für den vorliegenden Beitrag genutzt wurde.
[19]

Im Zuge der Analyse wurde zur Ermittlung der notwendigen regulären Ausdrücke für das österreichische Recht ein Beispielgesetz herangezogen. Dabei handelt es sich um das Mietrechtsgesetz (MRG). Die Analyse ergab zehn Satzmuster, welche in der folgenden Tabelle enthalten sind.

Nr. Muster Regulärer Ausdruck Anzahl
1 kleiner Buchstabe[.] (incl. ß) [a-zß][.] 235
2 kleiner Buchstabe[.] Leerzeichen großer Buchstabe (incl. Umlaute) [a-zß][.] [A-ZÜÖÄ] 214
3 Zahl[.] [1-9][.] 8
4 kleiner Buchstabe[:] (incl. ß) [a-zß][:] 6
5 Zahl[.] Leerzeichen großer Buchstabe [1-9][.] [A-ZÜÖÄ] 4
6 kleiner Buchstabe[.] Leerzeichen [§] [a-zß][.] [§] 4
7 großer Buchstabe[.] Leerzeichen großer Buchstabe [A-ZÜÖÄ][.] [A-ZÜÖÄ] 3
8 großer Buchstabe[)][.] [A-ZÜÖÄ][)][.] 2
9 großer Buchstabe[.] [A-ZÜÖÄ][.] 2
10 [)][.] Leerzeichen großer Buchstabe [)][.] [A-ZÜÖÄ] 1
      ~479

Tabelle 1: Ergebnisse der Satzmusteranalyse zur Identifikation von Satzgrenzen für das MRG

[20]
Das Vorgehen umfasste die manuelle Markierung aller Sätze im RIS-XML des MRG mit dem zusätzlich definierten XML-Tag , womit gleichzeitig auch Satzmuster identifiziert werden konnten. Diese sind in der zweiten Spalte der Tabelle 1 aufgelistet. Bei einem Satzmuster handelt es sich um das letzte Zeichen des Satzendes und – falls vorhanden – den ersten zwei Zeichen des darauffolgenden Satzes. Die Satzmuster wurden anschließend mit Hilfe von regulären Ausdrücken formal abgebildet.
[21]
Anhand dieses Verfahrens ist zu erkennen, dass es durchaus sinnvoll wäre schon in einem früheren Prozessschritt die Sätze zu identifizieren bzw. zu markieren. Im RIS-XML könnte dies ein zusätzlicher XML-Tag sein, welcher den Satzpunkt definiert. Folgendes Beispiel zeigt die Notwendigkeit der Einführung von Satzpunktmarkierungen auf: «§45. (1) Im Fall eines vor dem 1. März 1994 geschlossenen Hauptmietvertrags kann der Vermieter den Hauptmietzins für eine Wohnung der Ausstattungskategorie A [...], anheben, [...]. Die angeführten Beträge valorisieren sich entsprechend der Regelung des § 16 Ans. 6. [...]».
[22]
Die Ausschnitte des § 45 Abs. 1 MRG zeigen, dass das Satzzeichen des Punkts nicht eindeutig ein Satzende bestimmt, sondern auch für Datumsangaben, wie hier «1.März 1994», oder für Abkürzungen, wie beispielsweise «Abs.» für Absatz, genutzt wird. Eine Markierung des Satzendes im RIS-XML würde in dem Fall Abhilfe schaffen.

4.

Technische Umsetzung und Evaluation ^

4.1.

Implementierung der Modellierungsmethode ^

[23]
Die Implementierung der Modellierungsmethode erfolgte mit Hilfe der Metamodellierungsplattform ADOxx [Fill/Karagiannis 2013]. Dabei handelt es sich um eine Plattform, welche sowohl eine Entwicklungs- und Konzeptions- als auch eine Modellierungsumgebung zur Verfügung stellt.
[24]
Um den Anforderungen an das System gerecht zu werden und Aspekte wie die Aktualität und Rechtmäßigkeit von Gesetzestexten zu gewährleisten, wurde das RIS über Webservices, welche im OGD Portal zur Verfügung gestellt werden, an die bestehende ADOxx Architektur angebunden. Diese Webservices werden im Editor über ADOScript aufgerufen.
[25]
Um den Einstieg in die Modellierungsumgebung vor allem für Rechtsexperten zu erleichtern, wurde die RIS-Abfrage als Modell im Tool so abgebildet, dass die Suche nach Gesetzen analog zum Vorgehen mit dem RIS ermöglicht wird. Die Suchfunktionen beschränken sich aktuell auf folgende Suchfelder: Suchworte, Titel, Abkürzung, Paragraph von/bis, Artikel von/bis, Fassung vom. Im Hintergrund wurde die Abfrage mit Webservices realisiert, welche Anfragen an das OGD Portal sendet und Gesetzestexte in Form von RIS-XML als Antwort erhält. Die abgebildete RIS-Abfrage im Editor dient somit als Wiedererkennungsmerkmal für Rechtsexperten.
[26]

Beim Ausführen einer Suche erhält der Benutzer eine Liste von Gesetzen angezeigt, welche sich dann automatisch mit einem Klick im Editor visualisieren lassen. Auf Basis der vorgestellten regulären Ausdrücke wurde eine automatisierte Satzmustererkennung entwickelt, die sich um die Markierung der Sätze im RIS-XML kümmert. Die automatische Generierung der Modelle erfolgt in ADOxx über den Aufruf einer jar-Datei aus ADOScript. Diese ausführbare Datei bekommt als Argument das RISXML und führt die Transformation mit Hilfe eines eigens in der Programmiersprache Java entwickelten Programms aus.

[27]
Das Resultat ist ein ADOXML, welche dann über das ADOScript in ADOxx importiert und als Gesetzesmodell dargestellt wird. Ein beispielhafter Gesetzesabschnitt im Editor ist in Abbildung 4 zu sehen.
[28]

In der Abbildung ist zu sehen, dass jeder Satz im ersten Absatz des § 2 MRG als separates Modellelement dargestellt ist. Von daher sind nun auch Abfragen im Gesetzesmodell nach Sätzen möglich. Eine solche Abfrage nach Sätzen im Gesetzesmodell für § 13 MRG ergab folgendes Ergebnis:

[29]
Weiterführende Abfragen z.B. nach der Anzahl der Sätze oder anderen Bestandteilen oder Eigenschaften der Gesetze sind demnach nun auch möglich.

4.2.

Evaluation ^

[30]

Für die Evaluation dienen die Ergebnisse der manuellen und automatisierten Analyse. Dabei wurde die manuelle sowie automatische Auszeichnung der Bestandteile des Gesetzes miteinander verglichen. Die folgende Tabelle zeigt eine quantitative Evaluation.

Anzahl Paragraphen 79
Anzahl an manuell identifizierten Sätzen ~ 479
Anzahl an manuell identifizierten Teilsätzen ~ 261
Anzahl an manuell identifizierten Fragmenten ~ 18
Anzahl richtig erkannter Paragraphen 69
Satzmuster 13
Regeln 10
Bekannte Sonderfälle 4

Tabelle 2: Quantitative Evaluation des MRG

[31]

Die korrekte Abdeckung und Erkennung der automatischen Satzmustererkennung lag dabei bei 87%. Der restliche Teil beinhaltete fehlerhafte Satzmarkierungen wie

  • Teilsätze, die mit einem großen Buchstaben beginnen und einem Satzpunkt enden, Publicationsystem: Abschnitt Text und Bild [Rz 39]
  • Abkürzungen, die nicht als solche identifiziert werden, beispielsweise «Nr. 1» oder «II. Hauptstück», Publicationsystem: Abschnitt Text und Bild [Rz 40]
  • und Datumsangaben, wie 30. November.
[32]
Für den restlichen Teil der 13% wurden im zweiten Schritt zwei weitere Lösungsansätze entwickelt. Dabei handelte es sich um die Erweiterung der automatischen Satzmustererkennung zur Markierung von Teilsätzen und einer zusätzlichen Markierung der restlichen Bestandteile des Gesetzes als Fragment, sodass Ausnahmen identifiziert werden können. Diese Ausnahmen werden dem Benutzer im Tool mit einem Hinweis angezeigt. Dieser ist beispielhaft in § 58 MRG in Abbildung 6 zu sehen.

5.

Conclusio und Ausblick ^

[33]
Die Satzanalyse und die Darstellung auf Satzebene bietet eine Basis für Modellerweiterungen mit Referenzen, um beispielsweise Verweise in Gesetzen abzubilden – vgl. Enser et al. [1989]. Die syntaktische Komplexität wurde somit mit Hilfe der Visualisierung durch eine Modellierungsmethode weitestgehend reduziert. Im nächsten Schritt können semantische Ansätze integriert werden. Zusammenfassend lässt sich sagen, dass die vorliegende Arbeit einen Beitrag dazu leistet, Potentiale der visuellen Modellierung des Rechts aufzuzeigen, und zukünftige Weiterentwicklungen ermöglicht.

5.1.

Danksagung ^

[34]
Die Autoren möchten sich bei Herrn Mag. Helmut Weichsel vom Bundeskanzleramt Österreich für die Hilfestellung bei der Auswertung der RIS-XML Daten, bei Herrn Univ.-Prof. Dr. Friedrich Lachmayer für die Hinweise bei der Analyse der Gesetzestexte und bei Herrn ao. Univ.-Prof. Mag. DDr. Erich Schweighofer für die Hinweise zur maschinellen Verarbeitung von Rechtssprache bedanken.

6.

Literatur ^

Bork, Domenik/Fill, Hans-Georg, Formal Aspects of Enterprise Modeling Methods: A Comparison Framework. In: Sprague, Ralph H. Jr. (Hrsg.), Proceedings of the 2014 47th Hawaii International Conference on System Science, IEEE/CPS, Los Alamitos/Washington/Tokyo 2014, S. 3400–3409.

Bundeskanzleramt der Republik Österreich (BKA), Handbuch der Rechtssetzungstechnik: Teil 1: Legistische Richtlinien 1990, Wien 1990. https://www.bka.gv.at/DocView.axd?CobId=1656.

Bundeskanzleramt der Republik Österreich (BKA), RIS – Allgemeine Informationen, https://www.ris.bka.gv.at/UI/Info.aspx.

Bundeskanzleramt der Republik Österreich (BKA), RIS – Open Government Data. https://www.ris.bka.gv.at/UI/Ogd.aspx.

Enser, Gerhard/Quirchmayer, Gerald/Traunmüller, Roland, Wilfert, Norbert, Der Einsatz von Expertensystemtechniken zur Unterstützung der Arbeit mit Rechtsinformationssystemen. In: Paul, Manfred (Hrsg.), Proceedings der 19. GI-Jahrestagung, Springer Verlag, Berlin/Heidelberg 1989, Band II, Springer, S. 125–140.

Falleri, Jean-Rémy/Huchard, Marianne/Lafourcade, Mathieu/Nebut, Clémentine, Metamodel Matching for Automatic Model Transformation Generation. In: Czarnecki, Krzysztof/Ober, Ileana/Bruel, Jean-Michel/Uhl, Axel/Völter, Markus (Hrsg.), Model Driven Engineering Languages and Systems – 11th International Conference, MoDELS 2008, Toulouse, France, 28 September–3 October 2008, Proceedings, Springer Verlag, Berlin/Heidelberg 2008, S. 326–340.

Fill, Hans-Georg/Haiden, Katharina, Visuelle Modellierung für rechtsberatende Berufe am Beispiel der gesetzlichen Erbfolge. In: Schweighofer, Erich/Hötzendorfer, Walter/Kummer, Franz/Borges, Georg, Netzwerke / Networks, Tagungsband des 19. Internationalen Rechtsinformatik Symposions IRIS 2016, OCG – Oesterreichische Computer Gesellschaft, Wien 2016, S. 349–356.

Fill, Hans-Georg/Karagiannis, Dimitris: On the Conceptualisation of Modelling Methods Using the ADOxx Meta Modelling Platform. In: Enterprise Modelling and Information Systems Architectures – An International Journal 2013, Vol. 8, Issue 1, S. 4–25.

Karagiannis, Dimitris/Kühn, Harald, Metamodeling Platforms. In: Bauknecht, Kurt/Tjoa, A Min/Quirchmayr, Gerald (Hrsg.), Third International Conference, EC-Web 2002 Aix-en-Provence, Springer Verlag, Berlin-Heidelberg 2002, S. 182.

Koller, Daphne/Friedman, Nir, Probabilistic Graphical Models: Principles and Techniques. In: MIT Press 2011, S. 237–238.

Merkl, Dieter/Schweighofer, Erich/Winiwarter, Werner, CONCAT – Connotation Analysis of Thesauri Based on the Interpretation of Context Meaning. In: Karagiannis, Dimitris (Hrsg.), 5th International Conference on Database and Expert Systems Applications, Springer Verlag, London 1994, S. 329–338.

Schweighofer, Erich, Rechtsinformation und Wissensrepräsentation, Automatische Textanalyse im Völker- und Europarecht, Springer Verlag, Wien 1999.

Stöger, Helga/Weichsel, Helmut, Das Redesign des Rechtsinformationssystems – Datenerfassung und Abfrage. In: Schweighofer, Erich/Geist, Anton/Heindl, Gisela (Hrsg.), 10 Jahre IRIS: Bilanz und Ausblick – Tagungsband des 10. Internationalen Rechtsinformatik Symposions IRIS 2007, Boorberg, Stuttgart 2007, S. 231–237.

Weichsel, Helmut, Rechtsinformationssystem (RIS) – ein Rück- und Ausblick. In: Schweighofer, Erich/Handstanger, Meinrad/Hoffmann, Harald/Kummer, Franz/Primosch, Edmund/Schefbeck, Günther/Withalm, Gloria (Hrsg.), Zeichen und Zauber des Rechts – Festschrift für Friedrich Lachmayer, Editions Weblaw, Bern 2014, S. 185–198.

Winiwarter, Werner/Schweighofer, Erich, Legal Expert System KONTERM – Automatic Representation of Document Structure and Contents. In: Marik, Vladimir/Lazansky, Jiri/Wagner, Roland (Hrsg.), 4th International Conference on Database and Expert Systems Applications, Springer Verlag, Berlin-Heidelberg 1993, S. 486–497.