1.
«Open Government», «Open Data», «Open Access»... ^
Im Jahre 1945, nach der Katastrophe des Zweiten Weltkriegs, veröffentlichte Karl Popper (1902–1949) sein Buch «Die offene Gesellschaft und ihre Feinde». Er beschrieb darin das Ideal eines demokratischen und offenen Staates, in welchem die Mehrheit nicht herrschen, sondern die Möglichkeit haben soll, die Regierung gewaltfrei abzuwählen. In der Gegenwart hat der Gedanke der «offenen Gesellschaft» durch das Internet eine ganz neue und ungeahnte Aktualität gewonnen. Man denke nur an den arabischen Frühling oder an die Demokratiebewegungen in Ländern wie Russland und China. In unserem Land ist es gottlob vergleichsweise problemlos möglich, die Regierung abzuwählen, aber auch bei uns bietet das Internet demokratische Chancen, die noch längst nicht ausreichend genutzt werden. «Open Government», «Open Data», «Open Access», «Digitale Bürgerpartizipation», «Liquid Democracy» – das sind Schlagworte für politische Anliegen, die noch längst nicht zu einer gemeinsamen Strategie von Politik, Wissenschaft, Recht und Technik mit dem Ziel einer größeren Transparenz staatlichen Handelns geführt haben. Die Ereignisse um Stuttgart 21 haben schmerzhaft gezeigt, dass in unserem technisch vorangeschrittenen Land hochkomplexe Entwicklungen mit Mitteln und Methoden diskutiert werden, die nicht wesentlich über das Stammespalaver archaischer Stämme hinausreichen.
Das Internet existiert erst seit wenigen Jahren. Es wird im Wesentlichen mit Informationen gefüllt, die aus dem Papierzeitalter stammen, und die überwiegend eindimensional als lineare Texte eingestellt werden. Solche Informationen unverändert in das Internet zu stellen, bringt wenig. Man stelle sich vor, alle Unterlagen zu «Stuttgart 21», die nach den Worten des Schlichters Heiner Geißler «sämtliche auf den Tisch» kommen sollten, wären wirklich auf dem Tisch gestapelt worden – ein absurder Gedanke. Auch deren unveränderte Einstellung in das Internet wäre sinnlos gewesen und hätte die Bürger überfordert. Akten der Verwaltung im Internet kann man vergleichen mit den ersten Eisenbahnen, die als Reihen miteinander verbundener Postkutschen konstruiert wurden, wobei der Schaffner auf dem Trittbrett von Coupé zu Coupé hangelte und die Reisenden darüber staunten, dass die Lokomotiven gar keine Beine hatten. Der interessierte Bürger will nicht Planfeststellungen, Baugenehmigungen, Verträge, Gutachten, Ausschreibungen, Aufträge, Normen, Gerichtsentscheidungen, Stellungnahmen, Parteiprogramme und dergleichen mehr in der Form präsentiert bekommen, wie sie bei den jeweils zuständigen Stellen in Papierform existieren – er will vielmehr Informationen zu Themen erhalten, die ihn interessieren. Dabei gibt es naturgemäß ganz unterschiedliche Informationswünsche. Der eine will wissen, wie ein Verkehrskonzept konkret unter dem Blickwinkel einer bestimmten, von ihm täglich genutzten Streckenverbindung aussieht. Den anderen interessiert, welche geologischen Besonderheiten bei einem Bauvorhaben vorhanden sind und was die Gutachter dazu sagen. Ein Dritter fragt, ob und wie die Natur beeinträchtigt wird, und was man für den Naturschutz tun kann. Ein Vierter will über Kostenschätzungen informiert werden, fragt, wann und wie sie zustande gekommen sind, und hat Zweifel, ob die zugrundeliegenden Annahmen realistisch waren, und ob sie immer noch gültig sind. Entsprechend verhält es sich mit vielen anderen Belangen, etwa solchen der Lärmbelastung, des Denkmalschutzes, des Urheberrechtsschutzes, der Stadtentwicklung, des demographischen Faktors und dergleichen mehr. Der interessierte Bürger will Informationen erhalten, aber er bekommt bestenfalls mehr oder weniger ungenießbare Texte, die für die Zwecke einer im Papierzeitalter entstandenen und dem Aktendenken verpflichteten Verwaltung entstanden sind. «Digitale Bürgerpartizipation» kann so nicht verwirklicht werden. Die Forderungen nach Informationsfreiheit, nach einem Jedermannsrecht auf Akteneinsicht und -auskunft, Erscheinungen wie Wikileaks und Digitales Whistleblowing, selbst neue politische Gruppierungen wie die Piraten – dies alles geht ins Leere, solange es nicht gelingt, die Komplexität von staatlichen Projekten auf strukturierte Weise in digitalen Informationen so bereitzustellen, dass die Bürger sich auf einfache Weise in den sie interessierenden Themenbereichen zurechtfinden und – was vor allem wichtig ist – dazu gezielt Stellung nehmen können. Dabei geht es beileibe nicht nur um Großprojekte wie Flughäfen, Kraftwerke, Müllverbrennungsanlagen und Autobahnen. Auch im kommunalen Bereich, in kleineren Städten, kann etwa das Projekt des Ausbaus eines Fahrradnetzes in entsprechender Weise strukturiert über das Internet dargestellt und unter Beteiligung der Bürger entwickelt und gestaltet werden. Ein Beispiel bietet die Integrata-Stiftung, die ein derartiges Projekt aktuell in Tübingen entwickelt.
2.
Die Informationsfreiheit ^
Das Problem ist nicht neu, wohl aber dessen Dimension. Seit Jahrzehnten schon werden Verwaltungsdaten über die statistischen Bundes- und Landesämter interessierten Stellen, etwa wissenschaftlichen Forschungsinstituten oder Wirtschaftsunternehmen, zur Verfügung gestellt. Um verwertbar zu sein, müssen die Rohdaten aus ihrem jeweiligen Fachverfahrenskontext herausgelöst werden. Sie müssen anonymisiert und aggregiert und nach den jeweiligen erkenntnisleitendem Interesse IT-technisch nachbearbeitet werden. Um interpretierbar zu sein, müssen die Daten in begleitenden Beschreibungen erklärt werden. Noch aufwendiger und um ein Vielfaches komplexer wird es, wenn verschiedenartige singuläre Verwaltungsdaten kombiniert, also miteinander in Beziehung gesetzt werden sollen. Dann müssen nicht nur die Rohdaten aufbereitet werden, sondern dann müssen auch Relationen über Ordnungskriterien (Schlüssel) hergestellt werden, damit nicht Äpfel mit Birnen verglichen werden. Auch hierzu existiert vor allem im Wissenschafts- und Industrieforschungsbereich eine langjährige Praxis. Mit Hilfe statistischer Spezialprogramme werden Regressions-, Faktoren-, Cluster- und Netzwerkanalysen auf kombinierte Daten gerechnet und dargestellt.
Jetzt rächt sich, dass die Rechtsinformatik, also die Disziplin, die sich mit dem IT-Einsatz im Recht beschäftigt (und um ein Rechtsproblem geht es bei der Informationsfreiheit), in Deutschland zu einer Disziplin namens Informationsrecht verkümmert ist, die sich mit Rechtsfragen des Internet und anderer IT-Entwicklungen beschäftigt, statt die methodischen Möglichkeiten der Computerrevolution im Recht selbst zu erforschen. Die im 19. Jahrhundert vorgenommene Fokussierung der Juristen auf eine Worthermeneutik, der es um das «Auslegen» und «Verstehen» von Gesetzen geht, verbunden mit der trivialen Feststellung, dass Computer nicht «denken» können, hat dazu geführt, dass bislang an keiner juristischen Fakultät in unserem Lande die aktuelle Computerrevolution in ihrer Bedeutung für das Recht auch nur erkannt, geschweige denn in Forschung und Lehre bearbeitet wird. Dieses Versäumnis wiegt umso schwerer, als die Juristen es im Unterschied zu allen anderen Berufen ausschließlich mit Informationen zu tun haben. Das Ergebnis dieser Versäumnisse kann man an Ereignissen wie Stuttgart 21 besichtigen. Kaum ein in den drei Staatsgewalten Verwaltung, Gesetzgebung und Rechtsprechung tätiger Jurist verfügt über im Jurastudium erworbene rechtsinformatische Kenntnisse, um hier bessere Konzepte zu entwickeln. Entsprechendes gilt für die von Juristen dominierte Politik. So wurde bei Stuttgart 21 unwidersprochen zu der Behauptung aufgestellt: «Alles kommt auf den Tisch!» Niemand hat gesagt: «Aber der Kaiser hat ja gar keine Kleider an!»
Wenn die Bürger aufgrund verknüpfter Informationen fundiert informiert werden sollen, wenn ihnen auf dieser Grundlage eine durchdachte Meinungsbildung ermöglicht werden soll, und wenn differenzierte Bewertungen und Stellungnahmen abgerufen werden sollen, um möglicherweise sogar zu digitalen Quoren zu kommen, sind rechtliche, technische und logistische Quantensprünge notwendig. So wie die Mechanik von Demokratie als die Kybernetik sehr komplexer Prozesse und Institutionen zu verstehen ist («Balance of Power»), so stellt eine Verlagerung von Teilen dieser Mechanik, nämlich von Informationen und Prozessen in die digitale Welt, extrem hohe Anforderungen an das komplexe Zusammenspiel von Recht, Technik, Logistik und Sicherheit. Zu diskutieren und zu beantworten sind etwa Fragen wie diese: Was sind Daten und wie unterscheiden sie sich von Informationen? Wie können wir selbsttragende Informationsobjekte erzeugen und verwalten? Wie ist es möglich, kombinierte Informationskontexte aus unterschiedlichen Fachkontexten zu strukturieren? Wie gelingt es uns, diese Informationskontexte auf Informationsobjekten abzubilden? Welche juristischen und methodischen Vorgaben sind dabei zu beachten? Um diese und weitere Fragen beantworten zu können, ist eine Heuristik erforderlich, auf welcher Basis dann Pilotsysteme entworfen und Erfahrungen gesammelt werden können.
3.
Die Phänomenologie von Daten ^
Die Zahl kommt in der Natur nicht vor. Sie ist eine menschliche Erfindung, die wahrscheinlich älter ist als Sprache und Schrift. Sie dient dazu, Verhältnisse in der Natur verständlich zu machen. Eine bekannte Redewendung lautet: Keine Zahl kommt ohne Beschreibung aus. Trotz des heutzutage erreichten sehr hohen Automatisierungsfortschritts und trotz der immer komfortabler möglichen Verarbeitung strukturierter Daten durch grafische Oberflächen, Spezialprogramme und Datenbanken gilt dieser Satz nach wie vor. Die Gesamtheit aller IT-Teilgeschäftsprozesse, die in fachlichem Bezug zueinander stehen und in Form von Programmen (Dialoganwendungen oder Batchprozessen) spezifische, einzelfallbezogene Daten sequenziell verarbeiten, enthält die Beschreibung der in Gestalt von Zahlen vorliegenden Daten. Daten gewinnen nur im Zusammenhang mit Anwendungen ihren Informationsgehalt. Werden solche Daten aus den Fachverfahren extrahiert, spricht man von Rohdaten. Alle Standardsoftwareprogramme und Datenbanken bieten sei langem die Möglichkeit, flache Dateien - sogenannte Rohdatensätze - zu exportieren. Neuerdings werden die Daten über XML (= Extensible Markup Language) strukturiert, eine Sprache, welche die Codierung von Dokumenten in ein Format ermöglicht, das sowohl von Menschen als auch von Maschinen gelesen werden kann. Ob sie verwendet werden dürfen, richtet sich nach dem Datenschutzrecht. Vor der Entwicklung von XML wurde den exportierten Daten auf Magnetbändern eine entsprechende Satzbeschreibung beigelegt. Diese Satzbeschreibung hat die Positionen und Feldlängen der Daten auf dem Datenträger beschrieben und zugleich die einzelnen Daten in Form von Feldbeschreibungen erklärt. Andere Verarbeitungsprogramme haben diese «Rohdaten» dann eingelesen und in neuen fachlichen Zusammenhängen weiterverarbeitet. Eine Variante dieser Vorgehensweise sind sog. «Key-Value-Pair»-Dateien, die neuerdings sogar als Datenbanken eine Renaissance erleben. Im Prinzip ist auch die XML Technologie nichts anderes. Sie ermöglicht jedoch eine viel komfortablere Transformation der Satzformate sowie das Aus- und Einlesen der Daten über «Parser» (von engl. to parse = analysieren, also Analyseprogramme) und «Stylesheets» (engl. = Stilvorlagen).
4.
Die digitale Bereitstellung des Verwaltungshandelns ^
Die Gretchenfrage dabei lautet, ob und wie sich dieses Bereitstellungsangebot insgesamt so formalisieren lässt, dass alle Arten digitaler Information in einer einheitlichen Systemumgebung bereitgestellt werden können. Ist es möglich, entsprechende formalisierte Datenräume zu definieren und zu entwerfen, die als Speicher für das Informationsmanagement von E-Partizipation dienen können? Welche zusätzlichen Komponenten sind nötig, um Informations- und Entscheidungsprozesse für Bürgerbegehren zu komplexen digitalisierten Informationen in digitalen Umgebungen zu ermöglichen? Welche Werkzeuge stehen den Informationsdesignern zur Vorbereitung und Durchführung solcher Prozesse zur Verfügung? Welches Instrumentarium ist notwendig, um komplexe Informationen, analog der statistischen Kombinatorik, in fachliche Zusammenhänge bringen zu können, so dass jeder interessierte Bürger ein umfassendes Wissen über die ihn interessierenden Sachverhalte als Bewertungs- und Entscheidungsgrundlagen erwerben kann und sich dazu äußern kann? Wie weit wir von einer Antwort auf diese Fragen noch entfernt sind, hat das schon mehrfach erwähnte Beispiel Stuttgart 21 exemplarisch gezeigt. Die Aufgaben, die hier umrissen sind, haben für den gesamten öffentlichen Bereich Bedeutung, so beispielsweise auch für die Parteiprogramme, die den Bürgern als Entscheidungshilfe für Wahlen im Internet bereitgestellt werden sollen. Auch insoweit will der Bürger keine Politprosa lesen, sondern Antworten auf konkrete Fragen bekommen.
5.
Die formalisierten Datenräume ^
Die Sicherheit wichtiger Urkunden kann in digitalen Datenräumen nicht nur erreicht, sondern deutlich übertroffen werden. Die TRESOR Richtlinie des Bundesamtes für Sicherheit in der Informationstechnik und deren Spezifikation in Gestalt eines XAIP Containers («XML formatted Archival Information Package») liefert einen Standard für die authentische und integre Speicherung von Dokumenten. Sie erlaubt es, alle dem Papier als Dokumententräger immanenten Eigenschaften mit technischen Mitteln nachzubilden und den Informationscontainer «selbsttragend» auszugestalten. Er kann sämtliche Informationen enthalten, die für eine Weiterverarbeitung erforderlich sind. Damit ist der Informationsgehalt im Container nicht mehr von der Einbindung in das jeweilige Fachverfahren abhängig. Die Informationen gehen in ihrer Qualität auch über Rohdaten und deren Beschreibungen in Datenformatlisten hinaus. Sie gehen auch über die XML Standardisierung hinaus, weil neben den Metainformationen auch die rechtlich relevanten Eigenschaften des Informationsträgers Papier abgebildet werden. Der höchsten Qualitätsstufe lassen sich qualifiziert signierte Urkunden zuordnen, zum Beispiel standesamtliche Dokumente. Personenstandsbücher dürfen ab 2014 nur noch digital geführt werden. Andere Informationsobjekte werden nur durch Zeitstempel abgesichert, folgen aber in ihrem Aufbau dem gleichen Containerentwurf wie die Urkunden. Ein solcher Pool an Informationsobjekten kann, soweit es das Datenschutzrecht erlaubt, durch Verwaltung weiterer qualifizierender Mechanismen auf dem Informationsobjekt auch die rechtliche Informationsverwertung und die Urheberrechte strukturiert darstellen.
6.
Der strukturierte Zugriff auf die Informationen ^
Das Mittel hierzu finden wir in der hierarchischen Struktur unserer verbalen Sprache. Schon in der griechischen Wissenschaftstheorie der Antike hatte man erkannt, dass unsere Begriffe auf unterschiedlichen Abstraktionsgraden angesiedelt sind, denen unterschiedliche Bedeutungen zukommen. Dabei existiert ein umgekehrt proportionales Verhältnis von Umfang und Inhalt. Je größer der Umfang der mit einem Begriff gemeinten Gegenstände ist, desto geringer ist der Informationsgehalt, und umgekehrt. Der Begriff «All» erfasst wirklich «alles» und hat damit keinen spezifischen Inhalt mehr, während der Begriff «Juchtenkäfer» einen seltenen und sehr speziellen Käfer (Osmoderma eremita) aus der Unterfamilie der Rosenkäfer (Cetoniinae) meint, der in jüngster Zeit in der Nachbarschaft des Stuttgarter Hauptbahnhofes gefunden wurde. Porphyrius (234 n.Chr. – frühes 4. Jhdt.) entwarf einen Begriffsbaum, die arbor Porphyriana. Vom allgemeinsten Begriff «substantia» (Substanz) ausgehend gelangte er zu immer konkreteren Begriffen. Dabei unterschied er zwischen Gattungen und Arten. Ein alter Lehrsatz lautete «Omnis definitio fit per genus proximum et differentiam specificam» (Jede Definition geschieht durch die niedere Gattung und den artbildenden Unterschied»). Im bekannten Schulbeispiel der Definition des Schimmels als weißes Pferd ist Pferd die Gattung und weiß der artbildende Unterschied. In der Art sah man früher das Wesen der Dinge. Im Mittelalter entwarf Petrus Hispanus aufgrund dieser Überlegung die Arbor Porphiriana. Man hoffte, auf diese Weise etwas über das Wesen der Dinge zu erfahren.
Heute sprechen wir nicht mehr wie die Alten von «Begriffen», sondern von «Chunks» und «Konzepten», und statt «Begriffsbaum» sagen wir «Outliner». Aber am Prinzip hat sich nichts geändert. Solche Outliner werden im gesamten Rechtswesen verwendet. Sie können technisch abgebildet und nutzbar gemacht werden. Auf diese Weise entsteht eine an die menschliche Informationsverarbeitung angepasste hierarchische Strukturierung, mit der komplexe Inhalte über die Verlinkung mittels Strukturpunkten in logisch transparente Informationsbeziehungen abgebildet werden können. Solche Outliner bieten eine sehr schnelle Methode, um aus umfangreichen Beständen gesuchte Chunks zu finden. Angenommen, zu jedem Chunk gehören nur zwei Unter-Chunks, zu denen wiederum jeweils nur zwei Unter-Chunks gehören, so verringert sich mit jedem Chunk das Suchfeld um die Hälfte. Wenn man 2 hoch n Möglichkeiten hat, einen bestimmten Chunk zu suchen, verringert sich diese Möglichkeit mit der ersten Suche auf 2 hoch n-1, mit der zweiten Suche auf 2 hoch n-2 und so fort. Da 2 hoch 10 = 1024 ist, kann man auf diese Weise mit zehn Suchschritten einen Chunk aus über tausend Chunks herausfinden. Dieses Modell kommt so in der Realität natürlich nicht vor. Hier kann man regelmäßig mit wenigen Suchschritten in Sekundenschnelle zum gesuchten Ergebnis finden - und zwar systematisch.
Entsprechende Softwareentwicklungen haben sich bereits in der Praxis der Rechtsanwendung bewährt, in der es darum geht, aus einer sehr großen Vielzahl an Dokumenten juristische Informationen in kurzer Zeit zu finden. Daneben existieren natürlich die klassischen Methoden der Volltextrecherche. Vielleicht werden in einiger Zukunft AI (= «Artificial Intelligence»)-basierte Techniken hinzukommen (wobei «Intelligence» nicht mit Intelligenz verwechselt werden darf; die Central Intelligence Agency CIA ist keine «Intelligenz-Agentur») mit denen auf automatisierte Weise ganze Konzepte anstelle von Begriffen (Deskriptoren) gefunden werden können. Wie auch immer - der Zugriff auf digitale Datenräume muss und kann bereits heute in einer Weise gestaltet werden, dass sich jeder Bürger, sofern er nur lesen und schreiben und ein Inhaltsverzeichnis (einen «Outliner») benutzen kann, im Internet schnell und zutreffend informieren kann. Damit wird ihm dann auch die Möglichkeit geboten werden, sich differenziert zu äußern, also etwa Belange des Verkehrs gegen Belange des Naturschutzes abzuwägen. Das pauschale «Ja» oder «Nein» zu Stuttgart 21 sollte jedenfalls nicht das letzte Wort zur Bürgerpartizipation gewesen sein.
Prof. Dr. Fritjof Haft war Inhaber des Lehrstuhls für Rechtsinformatik und Strafrecht an der Universität Tübingen und baut derzeit die Rechtsinformatik als wissenschaftliche Disziplin an der neu gegründeten EBS Law School in Wiesbaden als Senior Professor auf.
Ernst Lorenz ist als Senior Manager bei der Oracle Deutschland B.V. & Co. KG im Bereich Geschäftsentwicklung für die Öffentliche Verwaltung tätig.