Jusletter IT

Standards und «Best Practice» in der elektronischen Rechtsetzung

  • Author: Günther Schefbeck
  • Category: Short Articles
  • Region: Austria
  • Field of law: Elektronische Rechtsetzung
  • Collection: Conference proceedings IRIS 2010
  • Citation: Günther Schefbeck, Standards und «Best Practice» in der elektronischen Rechtsetzung, in: Jusletter IT 1 September 2010
Standardisierung ist ein charakteristisches Merkmal der Institutionalisierungsphase im Lebenszyklus neuer Technologien. Zwar stehen der Standardisierung in der elektronischen Rechtsetzung die Komplexität und Spezifität legislativer Prozesse entgegen, jedoch werden zumindest in zunehmendem Maße Standardwerkzeuge für die Entwicklung individueller Lösungen verwendet, und aus «best practice»-Beispielen der elektronischen Rechtsetzung können Referenzmodelle als Orientierungsmaßstab für solche Lösungen gewonnen werden. Schließlich werden auch im internationalen Rahmen zumindest «soft standards» für die Legistik zu entwickeln sein, und zwar nicht nur für deren technologische Unterstützung (etwa in der Formatierung oder Benennung), sondern auch für die legistische Entwurfsarbeit selbst: die Implementierung solcher struktureller, inhaltlicher und prozeduraler Standards wird wiederum durch Standardformate, -editoren und -workflowsysteme unterstützt werden.

Inhaltsverzeichnis

  • 1. Die neuen Technologien in der Phase der «Institutionalisierung»
  • 2. Elektronische Rechtsetzung
  • 3. Standardisierung
  • 4. Legistische Standards und «best practice»

1.

Die neuen Technologien in der Phase der «Institutionalisierung» ^

[1]

Mag unser christlich-abendländisches Weltbild im Großen sich auch mehr einem linearen denn einem zyklischen Entwicklungsmodell verpflichtet fühlen, so hat die Ökonomie doch verschiedene zyklische Konzepte entworfen, um die makro- wie die mikroökonomische Entwicklung zu beschreiben, von den langen Kondratiev-Wellen1 bis zum Technologie- oder, in noch mikroskopischerer Betrachtung, Produktlebenszyklus2 . Unübertroffen bleibt natürlich der Zyklomane Edward R. Dewey, der weit über tausend Zyklen – von jenem des atlantischen Lachsaufkommens bis zu den vielfältigsten Börsenzyklen – gesammelt (und dabei allzu oft die Grenzen zwischen Beschreibung und Erklärung verwischt) hat3 .

[2]

Wenn wir uns heute nach Ansicht der Zykliker im fünften Kondratiev-Zyklus seit der Industriellen Revolution oder – der Basisinnovation nach – dem Dampfmaschinenzyklus, mit welchem die Zählung einsetzt, befinden, dann werden wir der Technologiegetriebenheit der wirtschaftlichen und gesellschaftlichen Entwicklung im allgemeinen ebenso gewahr wie der zentralen Bedeutung der Informationstechnologien für deren gegenwärtige Phase. Der Lebenszyklus von Technologien rückt damit in den Fokus: Am gängigsten ist immer noch das dem Produktlebenszyklus verwandte vierphasige Konzept nach Arthur D. Little, das Entstehung, Wachstum, Reife und Verfall unterscheidet4 . Die gesellschaftlichen Bedingtheiten und Wirkungen neuer Technologien holt Stephen Coleman in sein ebenfalls vierphasiges Modell, das er in verschiedenen Variationen beschrieben hat; am überzeugendsten erscheint diese Variante5 :

  • Unsicherheit
  • Euphorie
  • Institutionalisierung
  • Gesellschaftliche Adaption
[3]

In der Phase der Entwicklung neuer Technologien herrscht diesem Modell zufolge somit zunächst Ungewissheit, auf der einen Seite über die Verwertbarkeit, auf der anderen über den Nutzen einer neuen Technologie. Diese Phase kann lange dauern: Ein Vierteljahrhundert hat beispielsweise das Internet sich in militärischen und akademischen Kreisen verborgen gehalten, ehe es, getrieben durch die neue spezifische Schlüsseltechnologie des Hypertext-Übertragungsprotokolls, binnen weniger Jahre seinen steilen Aufstieg zum virtuellen Lebensraum genommen hat.

[4]

Dieser Aufstieg, der um die Mitte der 1990er Jahre eingesetzt hat, kennzeichnet in diesem konkreten Fall somit die Phase der Euphorie: Euphorie im Blick auf die wirtschaftlichen Nutzungsmöglichkeiten, mündend in einer blasenartigen Börsenentwicklung der Technologiewerte, Euphorie aber auch mit Sicht auf das gesellschaftliche Adaptionspotential, das einem Howard Rheingold die Chance einer sich in einer «virtuellen Gemeinschaft» neu (er)findenden Gesellschaft zu eröffnen schien6 .

[5]

Dann: die Phase der Institutionalisierung. Die neue Technologie wird zum «business as usual». Zwar ist die Euphorie verflogen, die neuen Werkzeuge werden aber bereits als unverzichtbar erlebt, und die technologische Entwicklung zielt auf Verfeinerung einerseits, auf Standardisierung andererseits. Nicht das ganz Neue und ganz Andere verspricht wirtschaftlichen Erfolg, sondern jenes Produkt, das in der veränderten technologischen Landschaft zweckmäßigere Funktionserfüllung (und, nicht zu vergessen, gefälligeres Design) mit größtmöglicher Interoperabilität verbindet. Diese Phase haben wir in der Entwicklung der neuen Informations- und Kommunikationstechnologien erreicht.

[6]

Schließlich: gesellschaftliche Adaption. Was aus einer nüchternen betriebswirtschaftlichen Perspektive Marktsättigung und Verfall bedeuten mag, erscheint in gesamtgesellschaftlicher Betrachtungsweise, der Trägheit sozietaler Evolution gemäß, als die langsame Anpassung gesellschaftlicher Muster an veränderte technologische Möglichkeiten und technische Gewohnheiten. Als ein Indiz für das Erreichen dieser Phase kann gesehen werden, dass keine technischen «Mimikry»-Lösungen mehr gefragt sind, Lösungen, die mittels neuer Technologien alte Gewohnheiten unterstützen sollen; in unserem Fall, beispielsweise, Lösungen, die mit digitalen Mitteln das Erscheinungsbild jahrhundertealter Drucktradition aufrechtzuerhalten suchen.

[7]

Gesellschaftliche Adaption an die neuen Informations- und Kommunikationstechnologien könnte zum Beispiel bedeuten: eine grundlegende Neugestaltung des Bildungswesens, weg vom frontalen klassengebundenen Unterricht hin zum eigenverantwortlichen vernetzten Lernen. Oder: eine intensivierte demokratische Fundierung staatlicher Willensbildung, durch regelmäßige Einbindung der Zivilgesellschaft, insbesondere auch einer immer größeren Zahl individueller Bürgerinnen und Bürger, in die ihr vorangehenden Meinungsbildungsprozesse, im Rahmen elektronischer Deliberations-, Konsultations- und Petitionsplattformen.

[8]

Allein: wenn wir auch heute schon am Steuerrad zu drehen haben, der Kurvenradius unseres sozietalen «Supertankers» ist groß genug, dass mit so weit gehender gesellschaftlicher Adaption nicht in der allernächsten Zukunft zu rechnen ist. Hier und heute befinden wie uns inmitten der Phase der Institutionalisierung der neuen Informations- und Kommunikationstechnologien. Dies gilt auch für ihren Einsatz im Prozess der staatlichen Willensbildung, und das heißt, vollzieht sie sich doch in der Form des Rechts, der Rechtsetzung.

2.

Elektronische Rechtsetzung ^

[9]

«Elektronische Rechtsetzung» steht zum einen für die informationstechnische Unterstützung von Rechtsetzungsprozessen – also von hoch formalisierten Geschäftsprozessen, die durch verfassungs- und verfahrensrechtliche Regelungen gesteuert werden, welche eine tief in die Papierkultur zurückreichende Tradition aufweisen –, zum anderen in dem Maße, in welchem gesellschaftliche Adaption an die neuen Technologien voranschreitet, auch für neue soziale Umgebungen, in denen sich Rechtsetzung vollzieht. Anders als es ihrem Ruf entspräche, der eine «Das haben wir schon immer so gemacht»-Kultur suggeriert, zeigt sich die Verwaltung dabei als eine durchaus innovationsoffene und adaptionsfähige Mikroumgebung. Administrative Prozessregeln dem Einsatz der neuen Technologien anzupassen, hat sich zumindest oftmals als einfacher erwiesen als die Anpassung geschäftsordnungs- oder verfassungsrechtlicher Regelungen, was andererseits angesichts der demokratiepolitisch zentralen Bedeutung des Rechtsetzungsprozesses und der hohen Sicherheits- und Transparenzanforderungen, die an ihn gerichtet werden, auch wiederum zu verstehen ist.

[10]

Die elektronische Unterstützung des Rechtsetzungsprozesses kann in fünf Ebenen strukturiert werden:

  • Informationsmanagement
  • Geschäftsprozessmanagement
  • Verbesserung der Verfahrensqualität
  • Verbesserung der Ergebnisqualität
  • Verbesserung der partizipatorischen Qualität
[11]

Alles beginnt mit der deskriptiven, zunächst ihn in seiner Komplexität oft stark reduzierenden Modellierung des Rechtsetzungsprozesses zum Zweck seiner Dokumentation – notwendig gleichermaßen zur Erfüllung administrativer Funktionen wie im Interesse der demokratienotwendigen Transparenz insbesondere des parlamentarischen Rechtsetzungsverfahrens. Im nächsten Schritt werden die Geschäftsprozesse in ihrer gesamten verfahrensrechtlichen und administrativen Komplexität modelliert, um ihre elektronische Unterstützung zu ermöglichen. Auch diese Modellierung kann deskriptiv bleiben, wird aber in der Regel zumindest im Ansatz auch bereits eine präskriptive Komponente umfassen, bietet doch die der Modellierung vorausgehende Analyse der Prozesse die Gelegenheit, ihre Mängel aufzudecken und in weiterer Folge zu beheben.

[12]

Dies führt zur Verbesserung der Qualität des Rechtsetzungsverfahrens, je nach Adaptionsfähigkeit und -geschwindigkeit erst durch administrative, dann auch durch legislative Maßnahmen. Ebenso eröffnet die Analyse der im Rechtsetzungsprozess zu verarbeitenden Dokumente die Chance, ihre Qualität, zumindest ihre strukturelle und formale Qualität, zu verbessern. Elektronische Werkzeuge der Gesetzesfolgenabschätzung, beispielsweise Simulationstechnologien, bergen sogar das Potential materieller Qualitätsverbesserung. Die partizipatorische Qualität des Rechtsetzungsprozesses und damit die demokratische Legitimation seiner Ergebnisse erscheint durch Instrumente elektronischer Partizipation nachhaltig verbesserbar – ihr regelmäßiger und umfassender Einsatz hat freilich den Willen der Legislative zur Voraussetzung, sich im Rechtsetzungsprozess auch gegenüber der nicht organisierten Öffentlichkeit responsiver zu verhalten als bisher: Das müsste nicht notwendigerweise einen Verlust an politischen Entscheidungsspielräumen bedeuten, mag doch die nicht organisierte Öffentlichkeit, einmal politisiert, als eine zusätzliche Kraft im politischen Kräfteparallelogramm, neben den organisierten Interessen, wirken; in jedem Fall aber würde es den Rechtsetzungsprozess aufwendiger, vor allem zeitaufwendiger machen.

3.

Standardisierung ^

[13]

Das Schöne an Standards ist, dass es so viele von ihnen gibt, lautet eines der Lieblingsbonmots unseres italienischen Freundes Fabio Vitali, eines der Pioniere in der Entwicklung technischer Standards für die elektronische Unterstützung des Rechtsetzungsprozesses. Und in der Tat: Auch noch in der Phase der Institutionalisierung neuer Technologien laufen die Entwicklungen nicht immer konvergent. Mag Interoperabilität auch, zumindest von den Anwendern, als wünschenswert und Standardisierung als Königsweg dorthin erkannt worden sein, so scheinen betriebswirtschaftliche Interessen doch oft gegen die Vereinbarung allgemein verbindlicher Standards zu sprechen. So werden dann so genannte «Industriestandards» festgelegt oder zwar im Rahmen öffentlicher und internationaler Standardisierungskörperschaften Standards, freilich gleich mehrere konkurrierende, normiert; die vom Gegensatz zwischen IBM und Microsoft unterfütterte parallele Standardisierung von ODF (ISO/IEC 26300:2006) und Office Open XML (ISO/IEC 29500:2008) hat die informatisch interessierte Öffentlichkeit vor drei Jahren sehr beschäftigt und gibt weiterhin ein besonders anschauliches Beispiel für nicht interoperable «Standards»7 .

[14]

Nichtsdestoweniger ruft gerade der Rechtsetzungsprozess aus zwei Gründen in besonderem Maße nach dem Einsatz offener Standards, und zwar angesichts der Forderungen nach

  • Transparenz des parlamentarischen Verfahrens und
  • langfristiger Dokumentation dieses Verfahrens und seiner Ergebnisse.
[15]

Transparenz ist, wie an anderer Stelle näher ausgeführt8 , elementare Parlamentsfunktion und Voraussetzung für hinreichende demokratische Legitimation des gesetzten Rechts. Auch, und mehr denn je, in technologischer Hinsicht darf die Legislative keine «black box» sein! Wie leicht intransparente Technologie dazu benützt werden kann, demokratische Legitimation in Zweifel zu ziehen, hat der Einsatz von «e-voting» bei der Hochschülerschaftswahl im Jahr 2009 gezeigt; auf die tatsächliche Funktionalität des technischen Werkzeugs kommt es dabei gar nicht an – Intransparenz reicht aus, um es demokratiepolitisch dysfunktional erscheinen zu lassen. Die Verwendung offener Standards erscheint daher gerade auf dem so sensiblen Anwendungsgebiet der staatlichen Willensbildung geboten; bemerkt sei, dass der Begriff des «offenen Standards» im Hinblick auf die ganz grundsätzlich in einem Standardisierungsverfahren zu erfüllenden Voraussetzungen durchaus als pleonastisch angesehen werden könnte – dennoch hat er sich, vielleicht auch angesichts der vielen postulierten «Industriestandards», durchgesetzt9 .

[16]

Die Verwendung offener Standards erscheint darüber hinaus auch als Grundvoraussetzung für jene Nachhaltigkeit der Dokumentation, deren gerade die Rechtsetzung bedarf. Rechtssicherheit bedingt nachvollziehbares Wissen um den Inhalt des Rechts und sein verfassungskonformes Zustandekommen, in zeitlich der möglichen Anwendbarkeit nicht mehr geltenden Rechts wegen nicht einmal durch die Derogationsmechanismen des Rechts selbst begrenzter Perspektive. Mit dem Paradigmenwechsel von papiergebundener zu elektronischer Authentizität, wie er in Österreich, zunächst allerdings nur hinsichtlich des Bundesgesetzblattes, bereits mit 1. Jänner 2004 vollzogen worden ist, gilt es daher, die Integrität, Authentizität und Zugänglichkeit der elektronisch kundgemachten Rechtsvorschriften «auf Dauer»10 zu gewährleisten. Eine solche langfristige Perspektive können jedenfalls grundsätzlich nur offene Standards bieten, weil jede proprietäre Software das Risiko der Diskontinuität birgt, welches auch durch vertragliche Vorkehrungen, etwa über eine treuhändische Hinterlegung des Quellcodes (so genannte «source code escrow agreements»), nur unzureichend abgefedert werden kann. In der intensiv geführten Diskussion über elektronische Langzeitarchivierung spielen daher Standardisierungsfragen eine wesentliche Rolle11 .

[17]

Immerhin sind bereits heute weithin akzeptierte Standards – unterschiedlichen Abstraktionsniveaus – für verschiedene im Zusammenhang mit elektronischer Rechtsetzung zu beachtende Bereiche verfügbar, insbesondere für die

  • Dokumentenarchitektur,
  • Metadatenarchitektur und
  • Archivarchitektur.
[18]

Die Metasprache XML hat als W3C-Standard12 ihre wegen übergroßer Komplexität wenig praktikable «Mutter-Sprache» SGML, einen ISO-Standard (ISO 8879:1986), weitgehend abgelöst und binnen wenig mehr als einem Jahrzehnt nicht nur eine Familie an sie begleitenden Standards, sondern eine längst unüberblickbare Vielfalt an spezifischen Anwendungen hervorgebracht, weil sie es ja ganz flexibel erlaubt, anwendungsspezifische Auszeichnungssprachen zu definieren. Die für sie charakteristische Trennung von Inhalt und Darstellung prädestiniert sie für Zwecke nachhaltiger Dokumentation (des Dokumenteninhalts), ihre Selbstbeschreibungsfähigkeit für den Datenaustausch. XML-basierte Austauschformate sind daher gerade auch für den hoch vernetzten Bereich der Rechtsetzung schon früh entwickelt worden, so das niederländische MetaLex13 , das mittlerweile im Rahmen eines CEN/ISSS-Workshop unter der Bezeichnung CEN MetaLex (CWA 15710:2007) zu einem europäischen Standard, oder korrekt einem «Workshop Agreement», ausgebaut worden ist14 .

[19]

Der aktuelle Vorschlag für die Weiterentwicklung von CEN MetaLex15 geht über die klassischen XML-Funktionalitäten der Dokumentenbeschreibung bereits hinaus und schließt u.a. eine Benennungskonvention ein (die sich von der noch zu erwähnenden Akoma Ntoso-Benennungskonvention inspiriert zeigt). Sie basiert auf dem zur Standardisierung vorgeschlagenen IRI-Konzept (RFC 3987)16 ; dieses Konzept des «Internationalized Resource Identifier» erweitert den bekannten und zu IRI aufwärtskompatiblen URI-Standard (RFC 3986)17 vom ASCII- auf den Unicode-Zeichensatz. Die Eindeutigkeit der Benennung von Dokumenten bzw. ihren Fragmenten ist nicht nur ein technisches Erfordernis des globalen Datenaustauschs, sondern auch ein zentrales Element normativen Wissensmanagements; die formale Korrektheit von Verweisungen zu gewährleisten, ist beispielsweise eine elementare Aufgabe der legistisch Tätigen (die hinkünftig elektronisch zu unterstützen sein wird).

[20]

In langfristiger Perspektive gewinnt das Erfordernis eindeutiger Identifizierung noch an Gewicht; insbesondere insoweit Dokumente nicht auf Fragmente ihrer selbst, sondern auf andere Dokumente verweisen, bedarf es angesichts der häufigen Veränderungen in deren physischer Lokalisierung eines diese transzendierenden Mechanismus, letztlich also eines Auflösungsmechanismus, der über die Benennung auf den Speicherort weiterverweist. Konzepte wie URN (RFC 2141), OpenURL (ANSI/NISO Z39.88), PURL, das «Handle System» (RFC 3650, 3651, 3652) oder das darauf basierende DOI (ANSI/NISO Z39.84, ISO/DIS 26324) dienen diesem Zweck18 ; was war doch das Schöne an Standards (oder solchen, die es werden wollen)?

[21]

Mag der Identifikator auch das wichtigste Metadatum eines Dokuments sein, so legen sowohl synchrones als auch diachrones Wissensmanagement die Verwendung reicherer Metadaten nahe. Jenseits der bereits in XML zu leistenden strukturellen Auszeichnung, also der Beschreibung der Syntax eines Dokuments, richtet sich die Aufmerksamkeit mehr und mehr auf seine semantische Beschreibung: CEN MetaLex sieht die Möglichkeit vor, RDF-Metadaten in dem Standard genügenden Dokumenten zu speichern, und der Vorschlag für seine Weiterentwicklung beinhaltet ein OWL-Schema, das inhaltlich an die im Rahmen der IFLA entworfenen «Functional Requirements for Bibliographic Records»19 anknüpft; inwieweit das auf bibliographische Einheiten ausgelegte IFLA-Konzept der Beschreibung normativer Dokumente nicht ein zu starres Korsett anzulegen droht, ist Gegenstand der Diskussion. Freilich zeigt sich auch das – standardisierte und außerhalb bibliothekarischer Kreise verbreitetere – elementare «Dublin Core Metadata Element Set» (ISO 15836:2009, ANSI/NISO Z.39.85, RFC 5013) vom bibliographischen Konzept beeinflusst20 ; in RDF ausdrückbar sind natürlich auch seine Elemente.

[22]

Steht somit die Standardisierung einer Metadatenspezifizierung für die semantische Beschreibung von normativen Dokumenten noch in Diskussion, so sind die Sprachen, in denen sie zu formulieren ist, bereits allgemein anerkannt: Die semantische Beschreibung der normativen Dokumente wird in den W3C-Standards RDF und RDFS21 , jene ihrer Beziehungen zu einander bzw. zu Kontextelementen in dem auf der RDF-Syntax aufbauenden W3C-Standard OWL22 geschehen. Die in RDF/OWL zu fassenden normativen Ontologien werden die Hintergrundfolie darstellen, vor welcher normatives Wissen zu repräsentieren sein wird. Müßig hervorzuheben, dass semantische elektronische Anwendungen im normativen Wissensmanagement – in der automationsunterstützten Befüllung der Ontologien wie Auszeichnung der einzelnen Ressourcen – die Hauptlast der Arbeit zu tragen haben werden, kann die intellektuelle Kapazität des Menschen allein der zunehmenden Ressourcenmenge doch nicht Herr werden.

[23]

Dass die Menge der Ressourcen nicht nur zunimmt, sondern sie auch in einem benützbaren Zustand bleiben, hat die Archivarchitektur zu gewährleisten. Auch sie ist bereits standardisiert: Das – auf die Anstrengungen der NASA zur Sicherung und Verfügbarhaltung ihrer riesigen Datenmengen zurückgehende – «Open Archival Information System» (ISO/IEC 14721:2003) ist ein Referenzmodell für die organisatorischen und prozeduralen Bedingungen des Umganges mit Daten bzw. Informationen23 ; es soll also nicht nur sichergestellt werden, dass die Daten erhalten, sondern auch dass sie als Informationen interpretierbar bleiben. Nur so kann aus ihnen immer wieder aufs neue Wissen generiert werden.

4.

Legistische Standards und «best practice» ^

[24]

Legistik steht in Tradition. Nicht überall reicht sie, wie im Vereinigten Königreich, ins Mittelalter zurück, nahezu überall aber ist ihr Kondensat in den vergangenen Jahrzehnten in Regeln unterschiedlichen normativen Ranges gefasst worden, die wir als «Legistische Richtlinien» bezeichnen können. So ist oft schon zu einer Zeit, als das Modewort des «best practice» noch nicht gebräuchlich gewesen ist, dessen Sinngehalt in intersubjektiv nachvollziehbaren Richtlinien für die legistische Tätigkeit verwirklicht worden: nämlich eine methodische Praxis festzuhalten, die konsistent hochwertige Ergebnisse geliefert hat, um sie als «benchmark», noch ein Modewort aus der Managementecke, für die je aktuelle Praxis verwenden zu können.

[25]

Die Erfahrungen mit elektronischer Unterstützung der Rechtsetzung reichen zwar nicht ins Mittelalter zurück, lediglich da und dort in die informationstechnologische Steinzeit, dennoch lässt sich auch darin bereits «best practice» erkennen. So kann etwa das im österreichischen Projekt «E-Recht» entwickelte Modell des legislativen Informationsmanagement durchaus zum Anknüpfungspunkt für ein Referenzmodell erkoren werden24 . Die administrativen Netzwerke, in welchen Parlamente und Regierungsbehörden europaweit, ja sogar global mit einander verbunden sind, wie etwa das gemeinsam von UNO und IPU eingerichtete «Global Centre for Information and Communication Technologies in Parliaments», ermöglichen einen Erfahrungsaustausch, in dessen Rahmen «best practice» diffundieren und inspirieren kann.

[26]

Ein auf globaler Ebene unternommener, zunächst an die afrikanische Fachöffentlichkeit adressierter Ansatz der Entwicklungsorganisation der Vereinten Nationen, der UNDESA, ist sogar schon im Begriff, die Brücke zu schlagen von der Nutzbarmachung von «best practice» zur informalen Standardisierung: Im Rahmen des gemeinsam mit dem Panafrikanischen Parlament und nationalen afrikanischen Parlamenten initiierten «Africa i-Parliament Action Plan» soll Training und die Bildung legistischer Fertigkeit mit der Ausarbeitung von Informationsressourcen und insbesondere der Entwicklung informationstechnischer Anwendungen verbunden werden25 . Die Schwerpunkte:

  • «Akoma Ntoso», ein bereits operationales XML-basiertes Dokumentenformat einschließlich einer Benennungskonvention, eines Metadatenschemas und einer Ontologie, ideal für den Datenaustausch und damit die Verdichtung der Interaktion auch zwischen den Legislativen
  • «Legislative Drafting Guidelines for Africa», eine auf dem «Joint Practical Guide» der EU aufbauende Sammlung von 48 Empfehlungen für die legistische Entwurfsarbeit als Begleitressource zu «Akoma Ntoso»
  • «Bungeni», ein noch in Entwicklung begriffenes System zur umfassenden elektronischen Unterstützung des parlamentarischen Informationsmanagement
  • «Africa Parliamentary Knowledge Network», ein nach dem Vorbild des Europäischen Zentrums für Parlamentarische Wissenschaft und Dokumentation ins Leben gerufenes, noch im Aufbau befindliches Netzwerk für interparlamentarischen Informationsaustausch
[27]

Diese Initiative, wenn auch vorerst auf einen Kontinent fokussiert, könnte sich als Nukleus für eine globale Standardisierungsbewegung in der Rechtsetzung erweisen, die technische wie auch legistische Standards im Blick zu haben hätte, und unter den letzteren wiederum:

  • Strukturstandards mit Zielen wie erleichterter automationsunterstützter Konsolidierung sowie größtmöglicher Kongruenz der formalen und der logischen Struktur der Rechtsvorschriften
  • Inhaltsstandards mit Blick etwa auf die normative Sprache und die Verweisungstechnik
  • Verfahrensstandards unter Berücksichtigung von Verfahrenserfordernissen wie z.B. Konsultationsprozessen oder von Erfordernissen der Gesetzesfolgenabschätzung
[28]

Ein globales «benchmarking» in der Rechtsetzung oder gar eine Standardisierung von Grundsätzen des Rechtsetzungsverfahrens mag utopisch wirken; andererseits: die Durchführung demokratischen Ansprüchen genügender Wahlen hat sich heute bereits vielerorts unter der Aufsicht internationaler Organisationen an einem Referenzmodell messen zu lassen26 .

[29]

Wo bliebe da die Kunst der Legistik27 ? Wenn Sir Geoffrey Bowman sagt, fünf Legisten oder Legistinnen, an den gleichen Gesetzentwurf gesetzt, würden (zumindest) fünf verschiedene Produkte hervorbringen28 , dann leuchtet daraus auch ein gewisser Stolz auf die Kreativität und Originalität legistischen Wirkens hervor, und der wäre ja gar nicht unbegründet. Dennoch: wenn ein möglichst klar strukturiertes und kohärentes normatives System ein anzustrebendes Ziel ist, dann wird auch die Standardisierung und Normierung der Legistik weiter voranzutreiben sein. «Legistische Richtlinien», die heute oft als unverbindliche Handreichung für die legistische Arbeit verstanden werden, können beispielsweise in einem XML-Format technisch implementiert und in ihrer Anwendung dadurch schließlich, wenn politisch durchsetzbar, auch erzwungen werden; dies mag zwar von manchen als Einschränkung der legistischen Freiheit, kann aber ebenso auch als Entlastung des Legisten bzw. der Legistin verstanden werden.



Günther Schefbeck, Abteilungsleiter, Parlamentsdirektion, Abteilung «Parlamentarische Dokumentation, Archiv und Statistik»
Dr. Karl Renner-Ring 3, 1017 Wien AT, guenther.schefbeck@parlament.gv.at


  1. 1 Vgl. Schumpeter, J., Konjunkturzyklen: Eine theoretische, historische und statistische Analyse des kapitalistischen Prozesses, Göttingen (1961).
  2. 2 Vgl. z.B. Höft, U., Lebenszykluskonzepte: Grundlage für das strategische Marketing- und Technologiemanagement, Diss. Berlin (1992), und Haupt, R., u.a., Der Patentlebenszyklus: Methodische Lösungsansätze der externen Technologieanalyse, Jena (2004), jeweils m.w.H.
  3. 3 Vgl. Dewey, E.R., Cycles: The Mysterious Forces That Trigger Events, New York (1971), sowie ergänzend Wilson, L.L., Catalogue of Cycles, pt. 1: Economics, Pittsburg (1987).
  4. 4 Dazu z.B. Höft (1992), S. 77ff.
  5. 5 Eine andere stellt die Euphorie an den Beginn und schiebt zwischen sie und die Institutionalisierung eine Phase des Widerstandes ein.
  6. 6 Siehe Rheingold, H., The Virtual Community: Homesteading on the Electronic Frontier, Reading (1993).
  7. 7 Vgl. dazu nun Eckert, K.-P., u.a., Document Interoperability: Open Document Format and Office Open XML, Berlin (2009).
  8. 8 Schefbeck, G., Transparenz und Partizipation in der elektronischen Demokratie, in: Schweighofer, E., u.a. (Hg.), e-Staat und e-Wirtschaft aus rechtlicher Sicht, Stuttgart (2006), S. 119 ff.
  9. 9 Eine Definition unternimmt: European Interoperability Framework for Pan-European eGovernment Services, Luxembourg (2004), S. 9.
  10. 10 Art. 49 Abs. 3 B-VG.
  11. 11 Zum aktuellen Standardisierungsbedarf siehe z.B. Oermann, A., u.a., Vertrauenswürdige und abgesicherte Langzeitarchivierung multimedialer Inhalte, Berlin (2009), S. 121ff.
  12. 12 Siehehttp://www.w3.org/XML/ ; aktuell ist die fünfte Ausgabe der Version 1.0.
  13. 13 Siehehttp://legacy.metalex.eu/ .
  14. 14 Siehe die Materialien unterhttp://www.metalex.nl/ .
  15. 15 http://svn.metalex.eu/svn/MetaLexWS/documentation/2009/metalex-proposal-20090828-final.pdf .
  16. 16 http://tools.ietf.org/html/rfc3987 .
  17. 17 http://tools.ietf.org/html/rfc3986 .
  18. 18 Vgl. Dack, D., Persistence is a Virtue,http://www.nla.gov.au/openpublish/index.php/nlasp/article/view/1320/1606 .
  19. 19 http://www.ifla.org/files/cataloguing/frbr/frbr.pdf .
  20. 20 Siehe die Materialien unter http://dublincore.org/.
  21. 21 Siehe die Materialien unterhttp://www.w3.org/standards/techs/rdf .
  22. 22 Siehe die Materialien unterhttp://www.w3.org/standards/techs/owl#w3c_all .
  23. 23 Siehehttp://public.ccsds.org/publications/archive/650x0b1.pdf .
  24. 24 Harald Hoffmann und der Autor dieser Zeilen haben es unternommen, ein solches Referenzmodell im Rahmen eines OSZE-Beratungsprojekts für das serbische Parlament zu entwerfen.
  25. 25 Siehehttp://www.parliaments.info/ mit Verknüpfung zu den Webpräsenzen der Einzelprojekte.
  26. 26 Vgl. z.B. das von der OSZE herausgegebene Election Observation Handbook, 5th ed., Warsaw (2005), und den ebenfalls von ihr publizierten «Standard» für ein elektorales Streitschlichtungsverfahren: Petit, D., Resolving Election Disputes in the OSCE Area: Towards a Standard Election Dispute Monitoring System, Warsaw (2000).
  27. 27 Vgl. Schefbeck, G., Legistik zwischen Kunst, Technik und Technologie, in: Bildungsprotokolle, Bd. 8, Klagenfurt (2004), S. 53 ff.
  28. 28 Bowman, G., The Art of Legislative Drafting, in: Amicus Curiae, issue 64 (2006), S. 2.