Jusletter IT

Digitale Bürgerbeteiligung in der «Offenen Gesellschaft»

  • Authors: Fritjof Haft / Ernst Lorenz
  • Category: Scientific Articles
  • Region: Germany
  • Field of law: E-Democracy
  • Citation: Fritjof Haft / Ernst Lorenz, Digitale Bürgerbeteiligung in der «Offenen Gesellschaft», in: Jusletter IT 12 September 2012
Die digitale Bürgerbeteiligung an der Diskussion komplexer sozialer, wirtschaftlicher und politischer Projekte im Internet kann sich nicht damit begnügen, Ja-Nein-Entscheidungen abzufragen. Vielmehr bedarf sie neuer Techniken, um strukturierte Stellungnahmen abgeben zu können und ein differenziertes Meinungsbild zu ermöglichen. Der Beitrag untersucht die hier gegebenen Möglichkeiten.

Inhaltsverzeichnis

  • 1. «Open Government», «Open Data», «Open Access»...
  • 2. Die Informationsfreiheit
  • 3. Die Phänomenologie von Daten
  • 4. Die digitale Bereitstellung des Verwaltungshandelns
  • 5. Die formalisierten Datenräume
  • 6. Der strukturierte Zugriff auf die Informationen

1.

«Open Government», «Open Data», «Open Access»... ^

[1]

Im Jahre 1945, nach der Katastrophe des Zweiten Weltkriegs, veröffentlichte Karl Popper (1902–1949) sein Buch «Die offene Gesellschaft und ihre Feinde». Er beschrieb darin das Ideal eines demokratischen und offenen Staates, in welchem die Mehrheit nicht herrschen, sondern die Möglichkeit haben soll, die Regierung gewaltfrei abzuwählen. In der Gegenwart hat der Gedanke der «offenen Gesellschaft» durch das Internet eine ganz neue und ungeahnte Aktualität gewonnen. Man denke nur an den arabischen Frühling oder an die Demokratiebewegungen in Ländern wie Russland und China. In unserem Land ist es gottlob vergleichsweise problemlos möglich, die Regierung abzuwählen, aber auch bei uns bietet das Internet demokratische Chancen, die noch längst nicht ausreichend genutzt werden. «Open Government», «Open Data», «Open Access», «Digitale Bürgerpartizipation», «Liquid Democracy» – das sind Schlagworte für politische Anliegen, die noch längst nicht zu einer gemeinsamen Strategie von Politik, Wissenschaft, Recht und Technik mit dem Ziel einer größeren Transparenz staatlichen Handelns geführt haben. Die Ereignisse um Stuttgart 21 haben schmerzhaft gezeigt, dass in unserem technisch vorangeschrittenen Land hochkomplexe Entwicklungen mit Mitteln und Methoden diskutiert werden, die nicht wesentlich über das Stammespalaver archaischer Stämme hinausreichen.

[2]

Das Internet existiert erst seit wenigen Jahren. Es wird im Wesentlichen mit Informationen gefüllt, die aus dem Papierzeitalter stammen, und die überwiegend eindimensional als lineare Texte eingestellt werden. Solche Informationen unverändert in das Internet zu stellen, bringt wenig. Man stelle sich vor, alle Unterlagen zu «Stuttgart 21», die nach den Worten des Schlichters Heiner Geißler «sämtliche auf den Tisch» kommen sollten, wären wirklich auf dem Tisch gestapelt worden – ein absurder Gedanke. Auch deren unveränderte Einstellung in das Internet wäre sinnlos gewesen und hätte die Bürger überfordert. Akten der Verwaltung im Internet kann man vergleichen mit den ersten Eisenbahnen, die als Reihen miteinander verbundener Postkutschen konstruiert wurden, wobei der Schaffner auf dem Trittbrett von Coupé zu Coupé hangelte und die Reisenden darüber staunten, dass die Lokomotiven gar keine Beine hatten. Der interessierte Bürger will nicht Planfeststellungen, Baugenehmigungen, Verträge, Gutachten, Ausschreibungen, Aufträge, Normen, Gerichtsentscheidungen, Stellungnahmen, Parteiprogramme und dergleichen mehr in der Form präsentiert bekommen, wie sie bei den jeweils zuständigen Stellen in Papierform existieren – er will vielmehr Informationen zu Themen erhalten, die ihn interessieren. Dabei gibt es naturgemäß ganz unterschiedliche Informationswünsche. Der eine will wissen, wie ein Verkehrskonzept konkret unter dem Blickwinkel einer bestimmten, von ihm täglich genutzten Streckenverbindung aussieht. Den anderen interessiert, welche geologischen Besonderheiten bei einem Bauvorhaben vorhanden sind und was die Gutachter dazu sagen. Ein Dritter fragt, ob und wie die Natur beeinträchtigt wird, und was man für den Naturschutz tun kann. Ein Vierter will über Kostenschätzungen informiert werden, fragt, wann und wie sie zustande gekommen sind, und hat Zweifel, ob die zugrundeliegenden Annahmen realistisch waren, und ob sie immer noch gültig sind. Entsprechend verhält es sich mit vielen anderen Belangen, etwa solchen der Lärmbelastung, des Denkmalschutzes, des Urheberrechtsschutzes, der Stadtentwicklung, des demographischen Faktors und dergleichen mehr. Der interessierte Bürger will Informationen erhalten, aber er bekommt bestenfalls mehr oder weniger ungenießbare Texte, die für die Zwecke einer im Papierzeitalter entstandenen und dem Aktendenken verpflichteten Verwaltung entstanden sind. «Digitale Bürgerpartizipation» kann so nicht verwirklicht werden. Die Forderungen nach Informationsfreiheit, nach einem Jedermannsrecht auf Akteneinsicht und -auskunft, Erscheinungen wie Wikileaks und Digitales Whistleblowing, selbst neue politische Gruppierungen wie die Piraten – dies alles geht ins Leere, solange es nicht gelingt, die Komplexität von staatlichen Projekten auf strukturierte Weise in digitalen Informationen so bereitzustellen, dass die Bürger sich auf einfache Weise in den sie interessierenden Themenbereichen zurechtfinden und – was vor allem wichtig ist – dazu gezielt Stellung nehmen können. Dabei geht es beileibe nicht nur um Großprojekte wie Flughäfen, Kraftwerke, Müllverbrennungsanlagen und Autobahnen. Auch im kommunalen Bereich, in kleineren Städten, kann etwa das Projekt des Ausbaus eines Fahrradnetzes in entsprechender Weise strukturiert über das Internet dargestellt und unter Beteiligung der Bürger entwickelt und gestaltet werden. Ein Beispiel bietet die Integrata-Stiftung, die ein derartiges Projekt aktuell in Tübingen entwickelt.

2.

Die Informationsfreiheit ^

[3]
Seit 2005 existiert das Informationsfreiheitsgesetz. Jeder hat danach gegenüber den Behörden des Bundes einen Anspruch auf Zugang zu amtlichen Informationen. Entsprechende Gesetze gibt es auch in einigen (nicht in allen) Bundesländern. Sie enthalten die rechtlichen Grundlagen für Open Data und Open Government. Für alle diese Gesetze gilt, dass sie zwar löbliche Anliegen verfolgen, dass aber gut gemeint noch lange nicht gut getan heißt. Die entscheidende Frage, wie die Informationsfreiheit technisch verwirklicht werden soll, bleibt dabei nämlich offen.
[4]

Das Problem ist nicht neu, wohl aber dessen Dimension. Seit Jahrzehnten schon werden Verwaltungsdaten über die statistischen Bundes- und Landesämter interessierten Stellen, etwa wissenschaftlichen Forschungsinstituten oder Wirtschaftsunternehmen, zur Verfügung gestellt. Um verwertbar zu sein, müssen die Rohdaten aus ihrem jeweiligen Fachverfahrenskontext herausgelöst werden. Sie müssen anonymisiert und aggregiert und nach den jeweiligen erkenntnisleitendem Interesse IT-technisch nachbearbeitet werden. Um interpretierbar zu sein, müssen die Daten in begleitenden Beschreibungen erklärt werden. Noch aufwendiger und um ein Vielfaches komplexer wird es, wenn verschiedenartige singuläre Verwaltungsdaten kombiniert, also miteinander in Beziehung gesetzt werden sollen. Dann müssen nicht nur die Rohdaten aufbereitet werden, sondern dann müssen auch Relationen über Ordnungskriterien (Schlüssel) hergestellt werden, damit nicht Äpfel mit Birnen verglichen werden. Auch hierzu existiert vor allem im Wissenschafts- und Industrieforschungsbereich eine langjährige Praxis. Mit Hilfe statistischer Spezialprogramme werden Regressions-, Faktoren-, Cluster- und Netzwerkanalysen auf kombinierte Daten gerechnet und dargestellt.

[5]
Nichts, was dieser etablierten Kombinatorik von Fakten vergleichbar wäre, existiert für die aktuell diskutierte E-Partizipation, also zum Beispiel für die fundierte Information von Bürgern in einem Planfeststellungsverfahren. Hier ist es nicht möglich, ein erkenntnisleitendes Interesse analog zu einem solchen Interesse in der Industrie- und Wissenschaftsforschung  zu formulieren. Die von der Statistik und Prognostik entwickelten Methoden, komplexe Zusammenhänge aus dem Umwelt-, Verkehrs-, Sozial- oder Wirtschaftsbereich zu «rechnen», taugen nicht dazu, eine fundierte Information von Bürgern in einem Planfeststellungsverfahren zu gewährleisten. Bei der Bürgerpartizipation hat man es vielmehr mit Individuen zu tun, die in ihrer Gesamtheit buchstäblich alles und jedes wissen und sich dazu äußern wollen, ohne dass man vorher sagen kann, was den einzelnen Bürger in concreto interessiert und in welche Richtung seine Vorstellungen gehen. Aktuell kann man nur Meinungsumfragen durchführen. Diese können mangels informationell befriedigender Basis nur sehr grobe Stimmungsbilder geben. Und die in Artikel 20 des Grundgesetzes ausdrücklich neben den Wahlen vorgesehenen «Abstimmungen» scheitern an dem nämlichen Problem, weshalb sie bislang überhaupt nicht eingeführt wurden. Wie die Erfahrung mit Stuttgart 21 gezeigt hat, reduzieren Stimmzettel komplexe Vorhaben auf simple Ja-Nein-Entscheidungen, nicht anders, als dies beim Scherbengericht der griechischen Antike der Fall war (wobei es gar nicht so leicht ist, Ja und Nein jeweils richtig zuzuordnen – auch das hat Stuttgart 21 gezeigt). 
[6]

Jetzt rächt sich, dass die Rechtsinformatik, also die Disziplin, die sich mit dem IT-Einsatz im Recht beschäftigt (und um ein Rechtsproblem geht es bei der Informationsfreiheit), in Deutschland zu einer Disziplin namens Informationsrecht verkümmert ist, die sich mit Rechtsfragen des Internet und anderer IT-Entwicklungen beschäftigt, statt die methodischen Möglichkeiten der Computerrevolution im Recht selbst zu erforschen. Die im 19. Jahrhundert vorgenommene Fokussierung der Juristen auf eine Worthermeneutik, der es um das «Auslegen» und «Verstehen» von Gesetzen geht, verbunden mit der trivialen Feststellung, dass Computer nicht «denken» können, hat dazu geführt, dass bislang an keiner juristischen Fakultät in unserem Lande die aktuelle Computerrevolution in ihrer Bedeutung für das Recht auch nur erkannt, geschweige denn in Forschung und Lehre bearbeitet wird. Dieses Versäumnis wiegt umso schwerer, als die Juristen es im Unterschied zu allen anderen Berufen ausschließlich mit Informationen zu tun haben. Das Ergebnis dieser Versäumnisse kann man an Ereignissen wie Stuttgart 21 besichtigen. Kaum ein in den drei Staatsgewalten Verwaltung, Gesetzgebung und Rechtsprechung tätiger Jurist verfügt über im Jurastudium erworbene rechtsinformatische Kenntnisse, um hier bessere Konzepte zu entwickeln. Entsprechendes gilt für die von Juristen dominierte Politik. So wurde bei Stuttgart 21 unwidersprochen zu der Behauptung aufgestellt: «Alles kommt auf den Tisch!» Niemand hat gesagt: «Aber der Kaiser hat ja gar keine Kleider an!»

[7]

Wenn die Bürger aufgrund verknüpfter Informationen fundiert informiert werden sollen, wenn ihnen auf dieser Grundlage eine durchdachte Meinungsbildung ermöglicht werden soll, und wenn differenzierte Bewertungen und Stellungnahmen abgerufen werden sollen, um möglicherweise sogar zu digitalen Quoren zu kommen, sind rechtliche, technische und logistische Quantensprünge notwendig. So wie die Mechanik von Demokratie als die Kybernetik sehr komplexer Prozesse und Institutionen zu verstehen ist («Balance of Power»), so stellt eine Verlagerung von Teilen dieser Mechanik, nämlich von Informationen und Prozessen in die digitale Welt, extrem hohe Anforderungen an das komplexe Zusammenspiel von Recht, Technik, Logistik und Sicherheit. Zu diskutieren und zu beantworten sind etwa Fragen wie diese: Was sind Daten und wie unterscheiden sie sich von Informationen? Wie können wir selbsttragende Informationsobjekte erzeugen und verwalten? Wie ist es möglich, kombinierte Informationskontexte aus unterschiedlichen Fachkontexten zu strukturieren? Wie gelingt es uns, diese Informationskontexte auf Informationsobjekten abzubilden? Welche juristischen und methodischen Vorgaben sind dabei zu beachten? Um diese und weitere Fragen beantworten zu können, ist eine Heuristik erforderlich, auf welcher Basis dann Pilotsysteme entworfen und Erfahrungen gesammelt werden können.

3.

Die Phänomenologie von Daten ^

[8]

Die Zahl kommt in der Natur nicht vor. Sie ist eine menschliche Erfindung, die wahrscheinlich älter ist als Sprache und Schrift. Sie dient dazu, Verhältnisse in der Natur verständlich zu machen. Eine bekannte Redewendung lautet: Keine Zahl kommt ohne Beschreibung aus. Trotz des heutzutage erreichten sehr hohen Automatisierungsfortschritts und trotz der immer komfortabler möglichen Verarbeitung strukturierter Daten durch grafische Oberflächen, Spezialprogramme und Datenbanken gilt dieser Satz nach wie vor. Die Gesamtheit aller IT-Teilgeschäftsprozesse, die in fachlichem Bezug zueinander stehen und in Form von Programmen (Dialoganwendungen oder Batchprozessen) spezifische, einzelfallbezogene Daten sequenziell verarbeiten, enthält die Beschreibung der in Gestalt von Zahlen vorliegenden Daten. Daten gewinnen nur im Zusammenhang mit Anwendungen ihren Informationsgehalt. Werden solche Daten aus den Fachverfahren extrahiert, spricht man von Rohdaten. Alle Standardsoftwareprogramme und Datenbanken bieten sei langem die Möglichkeit, flache Dateien - sogenannte Rohdatensätze - zu exportieren. Neuerdings werden die Daten über XML (= Extensible Markup Language) strukturiert, eine Sprache, welche die Codierung von Dokumenten in ein Format ermöglicht, das sowohl von Menschen als auch von Maschinen gelesen werden kann. Ob sie verwendet werden dürfen, richtet sich nach dem Datenschutzrecht. Vor der Entwicklung von XML wurde den exportierten Daten auf Magnetbändern eine entsprechende Satzbeschreibung beigelegt. Diese Satzbeschreibung hat die Positionen und Feldlängen der Daten auf dem Datenträger beschrieben und zugleich die einzelnen Daten in Form von Feldbeschreibungen erklärt. Andere Verarbeitungsprogramme haben diese «Rohdaten» dann eingelesen und in neuen fachlichen Zusammenhängen weiterverarbeitet. Eine Variante dieser Vorgehensweise sind sog. «Key-Value-Pair»-Dateien, die neuerdings sogar als Datenbanken eine Renaissance erleben. Im Prinzip ist auch die XML Technologie nichts anderes. Sie ermöglicht jedoch eine viel komfortablere  Transformation der Satzformate sowie das Aus- und Einlesen der Daten über «Parser» (von engl. to parse = analysieren, also Analyseprogramme) und «Stylesheets» (engl. = Stilvorlagen).

[9]
Die Erkenntnis aus diesem kurzen IT-welsch: Daten (Zahlen) sind als solche völlig inhaltslos. Erst eine adäquate Beschreibung der Daten stellt ihren Kontext und Informationsgehalt her. Der ursprüngliche Kontext wird durch die Fachprogramme hergestellt. Die Fachprogramme operieren auf den Datenobjekten. Wenn neue Operationen auf diesen Datenobjekten ausgeführt werden sollen, die nicht im Fachprogramm implementiert sind, müssen die Datenobjekte transformiert und in die neue Verarbeitung eingelesen werden. An diesem grundsätzlichen Sachverhalt hat sich weder durch neue Programmiersprachen, Objektorientierung noch SOA (= Service-orientierte Anwendungen) oder durch Webservices etwas geändert. Nur die Formalisierung und die Standardisierung ist über die Jahre verbessert und fortgeschritten worden.

4.

Die digitale Bereitstellung des Verwaltungshandelns ^

[10]
Je nach fachlichem Kontext ergeben sich qualitativ unterschiedliche Ergebnisse des Verwaltungshandelns in Form von Verwaltungsakten, Notizen, Verträgen, Festsetzungen, Überweisungen, Eintragungen usw. Diese Produkte kann man zwei verschiedenen Datentypologien zuordnen. Sie enthalten entweder personenbezogene Daten oder anonymisierte, aggregierte Einzelfalldaten. Die ersteren enthalten ganz überwiegend immer noch in Papierform fixierte Daten. Die letzteren haben einen fachspezifisch übergreifenden hohen Informationswert und werden, wie schon gesagt, von den statistischen Bundes- und Landesämtern, jahreszeitlich versetzt, interessierten Personen und Institutionen auf Anfrage bereitgestellt.
[11]

Die Gretchenfrage dabei lautet, ob und wie sich dieses Bereitstellungsangebot insgesamt so formalisieren lässt, dass alle Arten digitaler Information in einer einheitlichen Systemumgebung bereitgestellt werden können. Ist es möglich, entsprechende formalisierte Datenräume zu definieren und zu entwerfen, die als Speicher für das Informationsmanagement von E-Partizipation dienen können? Welche zusätzlichen Komponenten sind nötig, um Informations- und Entscheidungsprozesse für Bürgerbegehren zu komplexen digitalisierten Informationen in digitalen Umgebungen zu ermöglichen? Welche Werkzeuge stehen den Informationsdesignern zur Vorbereitung und Durchführung solcher Prozesse zur Verfügung? Welches Instrumentarium ist notwendig, um komplexe Informationen, analog der statistischen Kombinatorik, in fachliche Zusammenhänge bringen zu können, so dass jeder interessierte Bürger ein umfassendes Wissen über die ihn interessierenden Sachverhalte als Bewertungs- und Entscheidungsgrundlagen erwerben kann und sich dazu äußern kann? Wie weit wir von einer Antwort auf diese Fragen noch entfernt sind, hat das schon mehrfach erwähnte Beispiel Stuttgart 21 exemplarisch gezeigt. Die Aufgaben, die hier umrissen sind, haben für den gesamten öffentlichen Bereich Bedeutung, so beispielsweise auch für die Parteiprogramme, die den Bürgern als Entscheidungshilfe für Wahlen im Internet bereitgestellt werden sollen. Auch insoweit will der Bürger keine Politprosa lesen, sondern Antworten auf konkrete Fragen bekommen.

5.

Die formalisierten Datenräume ^

[12]
Der erste Schritt auf dem Weg zu formalisierten Datenspeichern ist die Ersetzung von Papier durch digitale Äquivalente. Das Papierzeitalter geht unwiderruflich seinem Ende entgegen. Historisch ist das kein einzigartiger Vorgang. Es gab Vorgänger des Papiers, etwa in Form von Schnüren, Stelen, Tontafeln, Wachstafeln und Pergamenten. Und es gibt längst Nachfolger in Gestalt von digitalen Datenträgern. Die Nachteile des Papiers sind in dem hier interessierenden Bereich so groß, dass kein Bedauern angebracht ist. Geschriebene Informationen sind stets eindimensional. Komplexe Gegenstände können auf diese Weise nur sehr unvollkommen dargestellt werden, etwa in Grafiken. Papier ist auch nur mühsam zu verbreiten. Viele Jahrhunderte waren es die Klöster, die das auf Papier gespeicherte Wissen hüteten und verwalteten. Mit Gutenberg begann dann eine Medienrevolution, die uns längst mit einer Papierflut überrollt hat. Was hülfe es dem Bürger, wenn man ihm einen viele Meter hohen Stapel Akten auf den Tisch legen würde?
[13]

Die Sicherheit wichtiger Urkunden kann in digitalen Datenräumen nicht nur erreicht, sondern deutlich übertroffen werden. Die TRESOR Richtlinie des Bundesamtes für Sicherheit in der Informationstechnik und deren Spezifikation in Gestalt eines XAIP Containers («XML formatted Archival Information Package») liefert einen Standard für die authentische und integre Speicherung von Dokumenten. Sie erlaubt es, alle dem Papier als Dokumententräger immanenten Eigenschaften mit technischen Mitteln nachzubilden und den Informationscontainer «selbsttragend» auszugestalten. Er kann sämtliche Informationen enthalten, die für eine Weiterverarbeitung erforderlich sind. Damit ist der Informationsgehalt im Container nicht mehr von der Einbindung in das jeweilige Fachverfahren abhängig. Die Informationen gehen in ihrer Qualität auch über Rohdaten und deren Beschreibungen in Datenformatlisten hinaus. Sie gehen auch über die XML Standardisierung hinaus, weil neben den Metainformationen auch die rechtlich relevanten Eigenschaften des Informationsträgers Papier abgebildet werden. Der höchsten Qualitätsstufe lassen sich qualifiziert signierte Urkunden zuordnen, zum Beispiel standesamtliche Dokumente. Personenstandsbücher dürfen ab 2014 nur noch digital geführt werden. Andere Informationsobjekte werden nur durch Zeitstempel abgesichert, folgen aber in ihrem Aufbau dem gleichen Containerentwurf wie die Urkunden. Ein solcher Pool an Informationsobjekten kann, soweit es das Datenschutzrecht erlaubt, durch Verwaltung weiterer qualifizierender Mechanismen auf dem Informationsobjekt auch die rechtliche Informationsverwertung und die Urheberrechte strukturiert darstellen.

[14]
Es gibt eine Vielzahl von ganz unterschiedlichen Anwendungsszenarien für solche formalisierten Datenräume. Man denke nur an die Nachweise komplexer geschäftlicher Transaktionen durch Verträge und urkundliche Nachweise, die sich aus dem Zusammenspiel von Notariaten, Banken, Vermessungsämtern und Finanzbehörden beim Immobilienerwerb hinsichtlich der Eintragungen in ein elektronisches Grundbuch ergeben. In solchen Fällen existieren sehr komplexe Prozessinfrastrukturen, über die eine rechts- und datensichere elektronische Kommunikation stattfindet.

6.

Der strukturierte Zugriff auf die Informationen ^

[15]
So komplex der Inhalt der formalisierten Datenräume auch ist, so einfach und an die Informationsverarbeitung im menschlichen Kopf angepasst muss der Zugriff auf die darin gespeicherten Informationen möglich sein. Vom Bürger kann nicht verlangt werden, dass er eine IT-technische Schulung absolviert, ehe er seine Informationsfreiheit im Internet nutzt. Der Bürger muss imstande sein, ohne weiteres mit wenigen Mausklicks zu den ihn interessierenden Informationen zu finden und dazu Stellung zu nehmen.
[16]

Das Mittel hierzu finden wir in der hierarchischen Struktur unserer verbalen Sprache. Schon in der griechischen Wissenschaftstheorie der Antike hatte man erkannt, dass unsere Begriffe auf unterschiedlichen Abstraktionsgraden angesiedelt sind, denen unterschiedliche Bedeutungen zukommen. Dabei existiert ein umgekehrt proportionales Verhältnis von Umfang und Inhalt. Je größer der Umfang der mit einem Begriff gemeinten Gegenstände ist, desto geringer ist der Informationsgehalt, und umgekehrt. Der Begriff «All» erfasst wirklich «alles» und hat damit keinen spezifischen Inhalt mehr, während der Begriff «Juchtenkäfer» einen seltenen und sehr speziellen Käfer (Osmoderma eremita) aus der Unterfamilie der Rosenkäfer (Cetoniinae) meint, der in jüngster Zeit in der Nachbarschaft des Stuttgarter Hauptbahnhofes gefunden wurde. Porphyrius (234 n.Chr. – frühes 4. Jhdt.) entwarf einen Begriffsbaum, die arbor Porphyriana. Vom allgemeinsten Begriff «substantia» (Substanz) ausgehend gelangte er zu immer konkreteren Begriffen. Dabei unterschied er zwischen Gattungen und Arten. Ein alter Lehrsatz lautete «Omnis definitio fit per genus proximum et differentiam specificam» (Jede Definition geschieht durch die niedere Gattung und den artbildenden Unterschied»). Im bekannten Schulbeispiel der Definition des Schimmels als weißes Pferd ist Pferd die Gattung und weiß der artbildende Unterschied. In der Art sah man früher das Wesen der Dinge. Im Mittelalter entwarf Petrus Hispanus aufgrund dieser Überlegung die Arbor Porphiriana. Man hoffte, auf diese Weise etwas über das Wesen der Dinge zu erfahren.

[17]
Dass unser Gehirn verbale komplexe Informationen über Hierarchien verarbeitet, hat die Forschung anhand von Experimenten erkannt. So erfolgt etwa die Antwort auf die Frage, ob der Kanarienvogel gelb ist, messbar schneller als die Antwort auf die Frage, ob er fliegt, und diese erfolgt wieder schneller als die Antwort auf die Frage, ob er frisst. Das Attribut «gelb» ist im Gedächtnis unmittelbar beim Begriff «Kanarienvogel» gespeichert, während die Antwort auf die Frage nach dem «Fliegen» den Weg über den Oberbegriff «Vögel» nehmen muss und die Antwort auf die Frage nach dem «Fressen» den noch weiteren Weg über die Stationen «Vögel» und «Tiere» nehmen muss und wiederum mehr Zeit in Anspruch nimmt.
[18]

Heute sprechen wir nicht mehr wie die Alten von «Begriffen», sondern von «Chunks» und «Konzepten», und statt «Begriffsbaum» sagen wir «Outliner». Aber am Prinzip hat sich nichts geändert. Solche Outliner werden im gesamten Rechtswesen verwendet. Sie können technisch abgebildet und nutzbar gemacht werden. Auf diese Weise entsteht eine an die menschliche Informationsverarbeitung angepasste hierarchische Strukturierung, mit der komplexe Inhalte über die Verlinkung mittels Strukturpunkten in logisch transparente Informationsbeziehungen abgebildet werden können. Solche Outliner bieten eine sehr schnelle Methode, um aus umfangreichen Beständen gesuchte Chunks zu finden. Angenommen, zu jedem Chunk gehören nur zwei Unter-Chunks, zu denen wiederum jeweils nur zwei Unter-Chunks gehören, so verringert sich mit jedem Chunk das Suchfeld um die Hälfte. Wenn man 2 hoch n Möglichkeiten hat, einen bestimmten Chunk zu suchen, verringert sich diese Möglichkeit mit der ersten Suche auf 2 hoch n-1, mit der zweiten Suche auf 2 hoch n-2 und so fort. Da 2 hoch 10 = 1024 ist, kann man auf diese Weise mit zehn Suchschritten einen Chunk aus über tausend Chunks herausfinden. Dieses Modell kommt so in der Realität natürlich nicht vor. Hier kann man regelmäßig mit wenigen Suchschritten in Sekundenschnelle zum gesuchten Ergebnis finden - und zwar systematisch.

[19]

Entsprechende Softwareentwicklungen haben sich bereits in der Praxis der Rechtsanwendung bewährt, in der es darum geht, aus einer sehr großen Vielzahl an Dokumenten juristische Informationen in kurzer Zeit zu finden. Daneben existieren natürlich die klassischen Methoden der Volltextrecherche. Vielleicht werden in einiger Zukunft AI (= «Artificial Intelligence»)-basierte Techniken hinzukommen (wobei «Intelligence» nicht mit Intelligenz verwechselt werden darf; die Central Intelligence Agency CIA ist keine «Intelligenz-Agentur») mit denen auf automatisierte Weise ganze Konzepte anstelle von Begriffen (Deskriptoren) gefunden werden können. Wie auch immer - der Zugriff auf digitale Datenräume muss und kann bereits heute in einer Weise gestaltet werden, dass sich jeder Bürger, sofern er nur lesen und schreiben und ein Inhaltsverzeichnis (einen «Outliner») benutzen kann, im Internet schnell und zutreffend informieren kann. Damit wird ihm dann auch die Möglichkeit geboten werden, sich differenziert zu äußern, also etwa Belange des Verkehrs gegen Belange des Naturschutzes abzuwägen. Das pauschale «Ja» oder «Nein» zu Stuttgart 21 sollte jedenfalls nicht das letzte Wort zur Bürgerpartizipation gewesen sein.


Prof. Dr. Fritjof Haft war Inhaber des Lehrstuhls für Rechtsinformatik und Strafrecht an der Universität Tübingen und baut derzeit die Rechtsinformatik als wissenschaftliche Disziplin an der neu gegründeten EBS Law School in Wiesbaden als Senior Professor auf.

 

Ernst Lorenz ist als Senior Manager bei der Oracle Deutschland B.V. & Co. KG im Bereich Geschäftsentwicklung für die Öffentliche Verwaltung tätig.