1.
Einleitung ^
Der legistische Zyklus1 besteht aus einer Reihe von Schritten, die typischerweise nicht allein von einer Person durchgeführt werden und die daher Kommunikation zwischen den involvierten Personen erfordern. Zudem muss das Ergebnis (=der «Gesetzestext») auch den Normadressaten kommuniziert werden. Ohne auf die vielfältigen Ausprägungen der Begriffe «Information» und «Kommunikation» eingehen zu wollen, sei kurz erläutert, in welchem Sinn «Semantik» in diesem Beitrag verstanden wird.
Damit ein Mensch seine «Idee» einem anderen «kommunizieren» kann, laufen jedenfalls auf menschlicher Ebene, heutzutage aber meist auch zwischengeschaltet oder begleitend auf technischer Ebene, eine Vielzahl von Prozessen ab, um diese Kommunikation zu ermöglichen.
Selbst im einfachsten Fall eines persönlichen Gesprächs müssen Sie ihre Idee in Worte (und/oder) Gesten abbilden – und dabei einen Code verwenden, den auch der beabsichtigte Empfänger «entgegennehmen» kann. Wenn Sie in einer für den Empfänger unbekannten Sprache «senden», dann ist die Kommunikation von vorneherein – auf dieser ersten Ebene: Codierung – zum Scheitern verurteilt. Während bei technischen Systemen meist die Frage des Vorliegens einer gemeinsamen Codebasis eine digitale Antwort (ja – funktioniert oder nein – funktioniert nicht) findet, ist in der menschlichen Kommunikation die Antwort oftmals «fließend»; man kann einen fremden Code «teilweise» verstehen und andere Teile wiederum nicht.
Dasselbe gilt auf die Frage der «Syntax»; darunter wird die Strukturinformation verstanden, die erforderlich ist für eine erfolgreiche Kommunikation. Auch diese Syntax existiert auf mehreren Ebenen – einerseits der Regeln etwa der Grammatik einer Sprache. Auch hier sind Menschen regelmäßig «toleranter» gegenüber Verletzungen der Syntaxregeln, aber ohne solche wäre eine Kommunikation auch bei gemeinsamem Symbolvorrat nicht möglich. Wie hinter (fast allen) Syntaxregeln stehen dahinter sinnvolle Begründungen, aber in technischen Systemen sind diese irrelevant; das Übertragungssystem prüft nur – und unabhängig von der Bedeutung im Einzelfall – ob die Regeln eingehalten sind oder nicht; wenn Sie etwa die Syntaxregeln einer Programmiersprache nicht einhalten, dann wird das Programm nicht ausgeführt. Sind die Syntaxregeln eingehalten, ist daraus aber nicht zu folgern, dass das Ergebnis «richtig» oder «bedeutsam» sei. Das gilt auch für die menschliche Kommunikation: Sie können grammatikalisch richtige Sätze formulieren, die völlig «unsinnig» sind – also keine Bedeutung für den Empfänger entfalten.2
Kodierte, syntaktisch richtige Information wird für den Menschen erst verwertbar, indem er sie interpretiert, d.h. «Bedeutung» erzeugt. Diese Bedeutung entsteht aber nur in einem Bezugsrahmen. Erst mit dieser «semantischen Interpretation» gewinnt die «Idee» wieder die Gestalt, die vom Sender ausgesandt worden ist.
Technische Systeme haben sich bisher sehr stark auf die Ebenen 1 und 2 (Codierung und Syntax) konzentriert; Semantische Technologien (Ebene 3) sind aber inzwischen soweit verfügbar, dass Sie in verschiedenen Anwendungsgebieten Marktreife erreicht haben und ihr Potenzial durchaus abschätzbar geworden ist. Wie dieses (visionäre) Potenzial im Bereich der Rechtsetzung aussieht, versucht der folgende Beitrag darzustellen.
2.
Ein möglicher Paradigmenwechsel ^
Der bisherige Rechtsetzungsprozess basiert auf der Kommunikation von Texten, typischerweise in Schriftform. Alle bisherigen Überlegungen zum IT-Einsatz zielen auf eine besseren Organisation, Strukturierung, Speicherung bzw. Verarbeitung der Elemente aus dem Rechtsetzungsprozess ab. Es gibt auch erste Ansätze, semantische Qualität ex posterior in den Prozess einzubringen (Disziplin der Textanalyse und der Wissenserschließung). Das alles ist sicherlich notwendig und als Zwischenschritt auch sinnvoll – aber das Ziel muss aus unserer Sicht ein anderes sein: Semantische Modelle als neues «Zielformat» im Rechtssetzungsprozess bis hin zur Kundmachung.
Das Ziel klingt sicherlich utopisch – und wird auch nicht binnen weniger Jahre erreichbar sein. Aber: Wer hätte sich vor 30 Jahren vorstellen können, dass es einmal ein elektronisches Dokument als authentische Version des Bundesgesetzblattes geben würde?
So utopisch die Ziel auch klingen mag, so «trivial» ist es eigentlich: Wir treiben derzeit einen enormen Aufwand, um die Ideen, die wir «im Kopf» haben, «in den Kopf» eines anderen Menschen zu bringen. Wenn wir technische Werkzeuge haben (werden), diesen Kodierungs- und Dekodierungsaufwand zu reduzieren und dadurch Fehler und Unvollständigkeiten zu vermeiden, dann sollten wir diese auch im Rechtsetzungsprozess nutzen.
Im Folgenden soll daher zumindest im Ansatz ausgeführt werden, auf welchen Grundsätzen solche Werkzeuge (semantische Technologien) aufbauen und was die Vorteile darauf basierender Prozesse wären – ohne dass damit behauptet werden soll, dass die heute vorhandenen Werkzeuge schon die Lösung darstellen würden!
3.
Ontologien als Basis semantischer Anwendungen ^
Ontologien werden heute als eine der bedeutendsten Repräsentationsformen für die Explizierung von Wissen bzw. mentalen Modellen verstanden – ein «Ausschnitt der Realität» wird formal definiert und somit maschinenlesbar gemacht. Ontologien sind jedoch keine Erfindung der IT. Vielmehr entsprang der aus dem griechischen stammende Begriff (einai – Sein und logos – Lehre / Wort) der Philosophie und wurde von der Linguistik adoptiert. Die Geschichte der «Lehre vom Seienden» geht bis in die Antike (z.B. Aristoteles´ «Metaphysik») zurück.
In der Informatik versteht man unter «Ontologie» eine formale Spezifikation einer Konzeptualisierung eines bestimmten Wissensgebietes. «To support the sharing and reuse of formally represented knowledge among AI systems, it is useful to define the common vocabulary in which shared knowledge is represented. A specification of a representational vocabulary for a shared domain of discourse … is called an ontology.»3 Aussagen über Sachverhalte können verlustfrei (in einer wohldefinierten Semantik) zwischen verschiedenen Akteuren (Menschen, Computern) kommuniziert werden.
Ontologien sind Begriffssysteme, die sich durch hohe semantische Reichhaltigkeit auszeichnen. Während etwa Taxonomien lediglich die typisierte Relation der Über-/Unterordnung zwischen ansonsten untypisierten Begriffen kennen, können mittels Ontologien beliebige Begriffe («concepts») und deren typisierte Beziehungen zueinander klar beschrieben werden.
Ontologien bestehen aus Klassen (als Synonym für Begriffe die eine abstrakte Sammlung von Objekte / Instanzen mit gemeinsamen Eigenschaften bezeichnen) bzw. Klassenstrukturen (Über- und Unterklassen), Instanzen (Objekte von Klassen) sowie Regeln (Inferenzregeln für Schlussfolgerungen und Integritätsregeln zur Gewährleistung der Gültigkeit). Je nach Aussagekraft von Ontologien werden«lightweight ontologies» und heavyweight ontologies unterschieden, wobei letztere von Axiomen Gebrauch machen um Sachverhalte zu repräsentieren, welches nicht aus Klassen abgeleitet werden können. Formale Sprachen zur Beschreibung von Ontologien sind etwa RDF(S) und OWL (in verschiedenen Ausprägungen) als vom W3C genormte Standards.
Ursprünglich der KI zugeordnet, erstrecken sich die Einsatzmöglichkeiten mit fortschreitender Anwendbarkeit und Technologiereife über verschiedenste Disziplinen und auf unterschiedlichste Aufgabenstellungen der Informationstechnik. Tim Berners-Lee et al.4 sprechen vor allem vom Semantic Web als weitreichendes Umsetzungszenarium, bei dem Daten im WWW eine wohldefinierte Bedeutung zukommen soll, die es u.a. Software Agenten ermöglicht, intelligent für ihre Auftraggeber tätig zu werden. Obwohl erste Schritte getan sind, ist es bis zur Realisierung dieser Vision wohl noch ein weiter Weg. Besonders in der Wissensmodellierung und der Definition von Fachvokabularien sind Ontologien jedoch bereits jetzt nicht mehr wegzudenken. In der Datenmodellierung sollen sie Interoperabilität und Kommunikation sicherstellen. In diese Kategorie fallen auch Datenintegration und die semantische Harmonisierung von Daten aus verschiedenen, heterogenen Repositories. Im Bereich der Wissenserschließung und der Textanalyse stellen Ontologien und darauf aufbauende semantische Technologien ihre Einsetzbarkeit unter Beweis, ebenso wie als Grundlage für entscheidungsunterstützende Systeme. Aber auch in der Abbildung der Applikationslogik und damit im Bereich der modellbasierten Applikationsentwicklung sind Ontologien eine wichtige Grundlage. All diese Einsatzbeispiele haben eines gemeinsam: sie benötigen wohldefinierte, explizite Aussagen über Tatsachen, die keine Interpretationsspielräume zulassen und somit eine gemeinsame Bedeutungsinterpretation zwischen verschiedenen Akteuren sicherstellen.
4.
Ein Beispiel zur Erläuterung ^
Das Thema «Studiengebühren», die kurz vor den Neuwahlen 2008 vorgeblich «abgeschafft» wurden, war zum Zeitpunkt der IRIS2009 gerade aktuell sehr in den Medien, da die konkrete Umsetzung für das SS 2009 erstmals zu administrieren war; der «Modellfall» «Studiengebühren» bot sich daher an – wobei hier nur auf einen Teilaspekt, nämlich die Befreiung für die «schnellen» Studierenden gemäß § 91 UG 2002, eingegangen wird.
Die folgende Grafik zeigt einen Ausschnitt aus einem solchen Modell, wobei lediglich die Klassenhierarchie und einige Eigenschaften angedeutet werden – logische Aussagen bleiben unberücksichtigt:
5.1.
Innere Widersprüche werden schneller offenbar ^
Die Modellierung mit semantischen Werkzeugen deckt innere Widersprüche und Unvollständigkeiten des Modells schneller auf; es ist daher davon auszugehen, dass mit semantischer Unterstützung entwickelte Normen (d.h. das Ergebnis des Normsetzungsprozesses) von besserer Qualität sein werden. Basis einer solchen Unterstützung ist das Vorhandensein einer Ontologie; da nicht zu erwarten ist, dass es eine Ontologie für die gesamte Rechtsordnung in absehbarer Zeit geben wird, ist die Entwicklung bzw. Anpassung einer Ontologie vorerst ein Zusatzaufwand.
5.2.
Verbesserter Entwicklungsprozess ^
Da in den Rechtsetzungsprozess immer Personen mit unterschiedlichem Intensitätsgrad und daher naturgemäß auch unterschiedlichem Informationsstand eingebunden sein werden, verbessert ein durch semantische Technologien unterstütztes Informationssystem die Möglichkeit, sich auch nur selektiv über einzelne Teile fundiert zu informieren, ohne die gesamte Informationsbasis im Detail studieren zu müssen.
Durch die formalisierte Festlegungen, die Voraussetzungen einer Ontologieentwicklung sind, können daher auch die Missverständnisse aller am Diskussionsprozess Beteiligten reduziert werden. Vieles, was heute Quelle eines Missverständnisses werden kann, weil es vom «Sender» als selbstverständlich angesehen wird, aber vom Empfänger (möglicherweise genauso selbstverständlich) anders verstanden wird, wird wegfallen, da es im Rahmen der Ontologie JEDENFALLS expliziert werden MUSS.
5.3.
Verbesserte Kommunikation an die Normadressanten ^
An Maschinen gerichtete Anweisungen müssen exakt und eindeutig sein – eine Anforderung, die auch Gesetzestexten üblicherweise zugemessen wird. Da Worte oft mehrdeutig sind und – vor allem im Zusammenhang – unterschiedliche Bedeutungen haben können, sehen sich derartige Texte nicht selten dem Vorwurf ausgesetzt, «schwer lesbar» zu sein. Wenn die Eindeutigkeit der Aussagen auf einer anderen Informationsebene eindeutig festgelegt ist, könnte es auch sprachlich «vereinfachte» Versionen solcher Normen geben, die hinsichtlich der Dimension «Verständlichkeit» optimiert sind, aber in Zweifelsfällen nicht ausreichend exakt sind; es könnte also zu einem semantischen Modell unterschiedliche «Schichten» textueller Repräsentation geben. In ähnlicher Weise ist es auch vorstellbar, dass ein gemeinsames semantisches Modell existiert, das textuell in unterschiedlichen Sprachen präsentiert werden kann.
Wenn, wie etwa bei EU-Richtlinien üblich, der Text in wenigen Sprachen verhandelt und dann letztendlich in alle Amtssprachen übersetzt wird, dann tritt das Problem des Verlusts an Semantik nicht nur einmal, sondern mehrmals auf unterschiedlichen Stufen auf und führt damit natürlich zu einem umso größeren Potenzial an Fehlern bei der Rekonstruktion der eigentlichen «Idee» des Absenders der Information.
5.4.
Wirkungsanalyse ^
Text ist relativ ungeeignet, um Beziehungen zwischen einzelnen Konzepten zu visualisieren; er ist primär auf Serialität ausgelegt. Einzig allein die Technik der «Verweise» in Form von Referenzen auf andere Textstellen vermag die Leser vom seqentiellen Lesen eines Textes abzubringen. Für die Darstellung von Zusammenhängen und Abhängigkeiten werden typischerweise dann andere Werkzeuge eingesetzt.
Semantische Modellierung macht solche Zusammenhänge dagegen notwendigerweise offenbar; es baut geradezu darauf auf. Eine Änderung in einem solchen Modell macht daher systemimmanent transparent, auf welche anderen Konzepte eine solche Änderung wirkt. Gerade bei kontroversen Gesetzesprojekten kommt es manchmal zu Änderungen im jeweiligen Parlamentsausschuss, die den Eindruck erwecken, dass das Zusammenwirken einer kurzfristig eingefügten bzw. gestrichenen Bestimmungen mit den verbliebenen Normteilen nicht bedacht wurde.
5.5.
Bessere Qualität von IT-Systemen ^
In einigen Rechtsbereichen (z.B. Steuerrecht, Pensionsrecht) sind die Rechtsnormen Basis für IT-Systeme, die zur Administration dieser Rechtsmaterien eingesetzt werden. Derartige Rechtsmaterien würden sich anbieten, um als erste prototypisch semantische Unterstützung anzuwenden; auch könnte hier die oftmals problematische Übersetzung von «Gesetzesdeutsch» in Pflichtenhefte für IT-Anwendungen deutlich verbessert werden. Die Entwicklung von Ontologien bereits im Bereich der Rechtssetzung könnte in solchen Fällen unmittelbar Basis für die Implementierung werden.
6.
Zusammenfassung ^
In legistischen Prozessen wird zumeist mittels Sprache bzw. in Form von Texten als Repräsentation von mentalen Konzepten und Modellen zwischen verschiedenen Beteiligten kommuniziert; das Ergebnis dieser Prozesse (d.h. der GesetztesTEXT) ist ebenfalls in Schriftform kodiert. An jeder Station dieses Prozesses muss die eigentliche Semantik des Textes erfasst (d.h. dekodiert) werden um wiederum in einer textuellen Änderung zu münden. Dieser Beitrag thematisiert die Fragestellung, ob Ontologien als formale Explizierung des eigentlichen «Gemeinten» eine geeignetere Repräsentationsformen darstellen könnten. Vorteile formaler Modelle wären etwa die Vermeidung bzw. die raschere Sichtbarkeit innerer Widersprüche, ein verbesserter Entstehungsprozess sowie eine zielgerichtetere Kommunikation an die Normadressaten, die Möglichkeiten der Wirkungsanalyse und auch eine bessere Qualität von gesetzlich determinierten IT-Systemen.
Johann Höller, Johannes Kepler Universität Linz, johann.hoeller@jku.at
Doris Ipsmiller, m2n, ipsmiller@m2n.at
- 1 Vgl Schefbeck, G., Per Anhalter durch das Legiversum; Rechts- und Legislativinformatik 2.0 (2009), in diesem Tagungsband, S. 53.
- 2 Nur der Vollständigkeit halber sei erwähnt, dass über der Ebene der Semantik noch als vierte Ebene die Pragmatik existiert. Diese beschäftigt sich mit der Frage, was die Bedeutung der Information an Veränderung beim Empfänger auszulösen vermag; d.h. welcher Informationswert mit dem Inhalt in der konkreten Situation des Zugangs verbunden ist.
- 3 Gruber, T., A translation approach to portable ontologies. In: Knowledge Acquisition (1993) Band 5, Nr 2, S 199 ff
- 4 Vgl. Berners-Lee, T./Hendler, J./Ora Lassila, O., The Semantic Web: a new form of Web content that is meaningful to computers will unleash a revolution of new possibilities. In: Scientific American, (2001), 284 (5), S 34 ff