Jusletter IT

Die Folgen des Technologiefortschritts für das Rechtsuniversum

  • Author: Reinhard Riedl
  • Category: Short Articles
  • Region: Switzerland
  • Collection: Conference proceedings IRIS 2011
  • Citation: Reinhard Riedl, Die Folgen des Technologiefortschritts für das Rechtsuniversum, in: Jusletter IT 24 February 2011
Der Fortschritt beim Einsatz von IKT zeigt, dass viele Gewissheiten des Rechtsuniversums nur Axiome mit zeitlich beschränkter Gültigkeit waren. Dieser Beitrag schlägt eine Auslegeordnungslogik für die Folgen des Technologiefortschritts vor und demonstriert die Folgen exemplarisch, unter anderem anhand der Konsequenzen von Virtualisierung und der Konsequenzen neu eingesetzten Lösungen im Bereich digitale Identität.

Inhaltsverzeichnis

  • 1. Einleitung
  • 2. Die Logik des Technologiefortschritts
  • 3. Das grosse Tohuwabohu der Fiktionen und Ansprüche
  • 4. Vorgehen bei der Analyse
  • 5. Kritische Trends
  • 5.1. Die seltsamen Phänomene der «Internetisierung»
  • 5.2. Probleme durch «virtuelle» Informationsverluste
  • 5.3. Regulierungsbedarf für die Bewirtschaftung digitaler Identitäten
  • 5.4. Atomisierung, Verlinkungen und Einbettung von Intelligenz in die Dokumentenwelt
  • 5.5. Die Welt als Ereignisstrom und überbordender Intelligenz im System
  • 5.6. Zusammenfassung der Trendbeispiele

1.

Einleitung ^

[1]
Rechtsetzung findet in einem fachdisziplinären Kontext statt, der auf Reflexionen basiert, die sich auf eine Erfahrungswelt beziehen. Diese Erfahrungswelt wird durch die Natur und die existierende Kultur geprägt, aber auch durch die existierende Technologie. Neue Technologie stellt die Relevanz vergangener Erfahrungswelten für die Zukunft grundsätzlich in Frage – und damit potentiell auch die existierende Gesetzeslage. Simpel gesagt: Was nicht möglich ist, muss auch nicht reguliert werden. Entstehen aber neue Möglichkeiten, muss über deren Regulierung grundsätzlich neu nachgedacht werden. Wird ein Bedarf nach Regulierung identifiziert, kann dies – muss aber nicht – zu einer neuen Rechtsetzung führen. Dieser Beitrag diskutiert die Frage, was die potentiellen Ursachen für technologiefortschritt-induzierten neuen Regulierungsbedarf sind und wie ein solcher identifiziert werden kann.

2.

Die Logik des Technologiefortschritts ^

[2]
Die Geschichte der Informatik ist eine Geschichte der Technologieentwicklung und eine Geschichte der Technologienutzungsentwicklung Sie ist geprägt durch die universelle Natur der Turing-Maschine und durch die daraus resultierende Vielfältigkeit der Möglichkeiten für den Informatik-Fortschritt. Diese Vielfältigkeit hat zur Folge, dass es jeweils sehr unterschiedliche Alternativen für den möglichen Fortschritt gibt und folglich einzelne konkrete technische oder ökonomische Hindernisse diesen nie substanziell blockieren konnten.1
[3]
Trotzdem hat die Technologieentwicklung eine relativ klar erkennbare Linie verfolgt im Umgang mit Systemkomplexität. Sie hat einige wesentliche Kernkonzepte immer weiter entwickelt, die es möglich machen, Nutzerbedürfnisse immer besser zu befriedigen und zugleich immer komplexere Systeme in Bezug auf die Gesamtfunktionalität zu bauen. Diese Kernkompetenzen bestehen im Komplexitätsmanagement, das heisst im erfolgreichen praktischen Umgang mit der Komplexität von informationsverarbeitenden Maschinen.
[4]
Der Schlüsselbegriff für das Verständnis des Komplexitätsmanagements in der Informatik und damit für wesentliche Aspekte der Informatik-Entwicklung insgesamt heisst «Transparenz»2 . Er steht für das Verbergen überflüssiger Information. Die Systemkomplexität wird beherrschbar gemacht, indem das System in Komponenten zerlegt wird und seine Komplexität in den Schnittstellen zwischen diesen lokalisiert wird. Für diese Schnittstellen gilt das Minimalitätsprinzip «so viel Information wie nötig, so wenig wie möglich». Dieses informationsminimierende Vorgehen erlaubt es, eine hochgradige Transparenz im Sinne der Informatik zu realisieren, die zur Folge hat, dass sich Lösungsentwickler weitgehend isoliert auf Teilprobleme fokussieren können.
[5]
Im Laufe der Zeit wurde es durch die Anwendung der Grundsätze des Transparenz-Engineerings möglich, sowohl Design als auch Steuerung von Anwendungssystemen auf einem immer höher werden Abstraktionsgrad zu realisieren. Die Mühsal des Codierens, Konfigurierens und Steuerns wurde immer weiter reduziert. Zwar blieb der Fortschritt in Bezug auf seine Geschwindigkeit stets hinter den Erwartungen, doch das Verschwinden von Information aus den Computersystemen – genauer aus bestimmten Schnittstellen – war trotzdem substanziell, was den Bau immer komplexer System praktisch beherrschbar machte.
[6]
Dies führte letztlich auch zum Entstehen von tatsächlich immer komplexer werdenden Informationstechnologie-Landschaften. In diesen verlieren natürliche Axiome, das heisst scheinbare Gewissheiten, ihre Gültigkeit. Beispielsweise gilt die bislang vernünftige Annahme, dass Informationen einen identifizierbaren Speicherort haben, in virtuellen Speichern nicht mehr. Beispielsweise verliert auch die Annahme, dass Datenschutz sich nicht auf anonyme digitale Teilidentitäten bezieht (weil bei diesen kein Bezug zu einer konkreten Person hergestellt werden) ihre unbeschränkte zeitliche Gültigkeit, weil der Technologiefortschritt bei Rechengeschwindigkeit und Wachstum der Kontextdatenmengen zu einer De-Anonymisierung führt.
[7]
Das Resultat des Fortschritts ist in der Praxis ein scheinbar widersprüchliches oder mindestens paradoxes. Manche Informationen entziehen sich dem Zugriff, indem sie in die Tiefen des Systems wandern, und zugleich werden mehr Systeminformationen und vor allem mehr Echtweltinformationen verfügbar, sodass die Informationsmenge geradezu explodiert. Gleichzeitig werden die praktisch relevanten Informationseinheiten immer kleiner (weil einzelne Bits adressierbar sind) und immer grösser, weil Dokumente untereinander verlinkt sind.
[8]
Doch nicht nur die Weiterentwicklung der Technik an und für sich entfaltet grosse praktische Wirkung, sondern vor allem die Weiterentwicklung des Gesamtsystems aus Maschinen. Deshalb liegt es nahe, die Anwendung der Grundsätze des Transparenz-Engineering von der Technik auf das Gesamtsystem auszudehnen. Dies ist nicht nur bei der Lösungsentwicklung nützlich, sondern erweist sich auch als ein sehr nützliches Analyseinstrument beziehungsweise als Instrument zur Strukturierung der grundsätzlichen Fragen in Bezug auf die Folgen von Technologie-Fortschritt.
[9]
Rein phänomenologisch lässt sich dies dadurch einfach belegen, dass auch im Organisationskontext selten die maximale Transparenz die optimale ist. Denn es kommt auf ein richtiges Zusammenwirken von Kontrolle und Freiräumen ankommt, das die handelnden Akteure respektiert und sie dazu animiert, ethische Verantwortung für ihre arbeit zu übernehmen.
[10]
Dass der intendierte Zugang zur Situationsanalyse auch de facto ein «natürlicher» ist, belegt weiters SOX – der Sarbanes-Oxley Act3 . Im Fall von SOX hat die prinzipiellen Möglichkeiten der Informations- und Kommunikationstechnologie Ansprüche an die Geschäftstätigkeit geschaffen ohne Bezugnahme auf die Technologien. Dies auch in Fällen, in denen gerade der IST-Zustand der Technik – sprich ihre in der Realität anzutreffende geringe Maturität – eine Erfüllung dieser Ansprüche für die meisten Unternehmen unmöglich macht.

3.

Das grosse Tohuwabohu der Fiktionen und Ansprüche ^

[11]
Die Emergenz von Kontrollierbarkeitsfiktionen und normativen Technologienutzungen (wie den SOX-Forderungen) ist charakteristisch für die aktuelle Entwicklung des Technologienutzungsumfelds. Sie tritt auch in der Form politischer Forderungen nach radikaler Schaffung von politischer, wirtschaftlicher und sozialer Transparenz auf, die zwangsläufig nicht nur den Bruch geltenden Rechts mit sich bringt, sondern auch zu Transparenz-Fiktionen führt.
[12]
Die eigentliche Technologienutzung ihrerseits wird aktuell geprägt durch ein Nebeneinander von Sorglosigkeit und Ängstlichkeit nach dem Motto «niemand weiss Genaues nicht.» Die Art und Weise wie beispielsweise die eigene Privatsphäre – und die Privatsphäre anderer - in digitalen sozialen Medien bisweilen offengelegt wird stellt die Forderung nach Beibehaltung des geltenden Datenschutzes politisch in Frage. Zugleich ist aber nach wie vor mangelndes Vertrauen in die Online-Sicherheit Grund dafür, dass manche Bevölkerungsgruppen nur sehr eingeschränkt ECommerce nutzen.
[13]
Die wissenschaftlich identifizierte, beschriebene und verbreitete Theorie der Technologienutzung gerät aber trotzdem in kritischen Themenfeldern ins Wanken – nahe daran, sich als Gegenteil der Wahrheit zu erweisen. Insbesondere beliebte Annahmen wie «hohe Vertrauenswürdigkeit impliziert hohe Akzeptanz» im Bereich der Nutzung digitaler Identitätsausweise und Signaturwerkzeuge haben sich als wenig zutreffend erwiesen.4 Und Misstrauen in die Sicherheit von eVoting und Einforderung von eVoting sind nicht zwangsläufig mehr Widersprüche,5 erfreuen sich aber nach wie vor grosser Beliebtheit.
[14]
Last but not least hat das World Wide Web eine Bühne für Selbstdarstellung wie auch die eigene soziale Orientierung in diesem Selbstdarstellungskosmos geschaffen, in der nicht nur Authentizität eine offensichtliche Illusion ist, sondern die Selbstdarstellungen ein Eigenleben entfalten. Das Web ist also ein Ort der «partage du sensible» im Sinne von Jaques Rancière6 . Dabei ist ganz prosaisch das Machen falscher Angaben im World Wide Web für breite Krise der Nutzer eine Selbstverständlichkeit oder gar ein eine notwendige Vorsichtsmassnahme, obwohl gleichzeitig der Wunsch nach Authentizität und Echtheit in Chatforen stark verbreitet ist.
[15]
In diesem grossen Tohuwabohu an Fiktionen und Ansprüchen dreht sich vieles um Transparenz: Was muss, was soll nicht, was darf nicht sichtbar sein? Was darf gestaltbar sein? Was sind die Ansprüche an Konstruierbarkeit, Korrektheit, Authentizität? Nur das ganz offensichtlich die ästhetische Dimension mit hineinspielt, die ihrerseits erstaunlich unfrei ist, weil sie wesentlich von Werkzeugen und Usability Best Practices geprägt wird.
[16]
Eine in technischen Traditionen wurzelnde Ingenieurssicht auf die Transparenz-Problematik hat zwar gute Chancen; hier empören sich viele, die sich mit politische Ästhetik und verwandten Themen beschäftigen. Sie hat aber den Vorteil potentiell klar strukturierte Antworten zu liefern, die obendrein die Gräben zwischen Technik und Techniknutzung überwinden helfen.

4.

Vorgehen bei der Analyse ^

[17]
Aus Sicht des ingenieursmässigen Umgangs mit Transparenz, das heisst aus Sicht des Transparenz-Engineerings, stellen sich folgende, grundsätzliche Fragen bei der Nutzung von Informations- und Kommunikationstechnologie:

  • Pflichten zum Start und zur Pflege des Lebenszyklus von Informationen: Wer muss welche Information in welcher Qualität in einem bestimmten Kontext generieren, beziehungsweise auf welche Dauer im Zustand der Zugreifbarkeit halten, bzw. in welchen Kontext für deren Löschung sorgen?
  • Recht zum Start und zum Eingreifen in den Lebenszyklus von Informationen: Wer darf Informationen in welchem Kontext und unter welchen Auflagen (Qualitätspflicht, Umfangbeschränkungen, Begleitmassnahmen, etc.) generieren oder verändern?
  • Zugriffsrechte: Was ist die minimal notwendige, respektive was die maximal zulässige, Information, auf die ein Nutzer in einem bestimmten Kontext Zugriff haben muss, respektive haben darf?
  • Rechte und Pflichten bei der Bewirtschaftung von Information: Welche Nutzung von welcher Information ist erlaubt und welche Nutzung ist unter welchen Auflagen oder (Reaktionszeit, etc.) oder Beschränkungen (Aufwand, etc.) verpflichtend?
  • Vorgehen beim Schätzen von Information: Wie sind Information im Fall ihrer Nichtzugreifbarkeit zu behandeln? Welche Annahmen über sie müssen oder dürfen getroffen werden?
[18]
Mit diesem Fragenraster können die Folgen von Technologieentwicklungen und von Technologienutzungsentwicklungen strukturiert untersucht werden, indem man in drei Schritten vorgeht. Der erste Schritt besteht darin zu fragen, welche Auswirkungen eine neue Technologie oder ein wachsendes Nutzerverhalten auf dieInformationslage hat: Wird prinzipiell neue Information generierbar oder in bestimmten Situation tatsächlich generiert? Wird Information anders oder für andere zugreifbar oder veränderbar? Verändert sich die Kontrolle über existierende Information (beispielsweise durch praktischen Kontrollverlust)?
[19]
Der zweite Schritt besteht in der Analyse der Wirkung dieser Veränderungen. Beinträchtigen Sie die grundsätzlichen Rechte der Betroffenen? Schafft sie Gefahren? Hat sie soziale und kulturelle Wirkungen, die politisch reflektiert werden müssen? Etc. Eine mögliche Technik des Vorgehens ist der Entwurf von Szenarien konkreten Technologieeinsatzes, die «durchgespielt» werden.
[20]
Der dritte Schritt besteht darin, anhand der oben aufgezählten fünf Fragen zu untersuchen, ob durch neue Regeln unerwünschte Folgen reduziert oder verhindert werden können. Diese Untersuchung liefert eine Basis für den potentiellen Entwurf neuer gesetzlicher oder auch anderer Regulierungen.
[21]
Darüber hinaus eignen sich die fünf skizzierten Fragen auch für eine Identifikation des Harmonisierungsbedarfs bei den nationalen Gesetzgebungen über den Umgang mit Daten und Informationen, beziehungsweise für ein exemplarisches Aufzeigen der Widersprüchlichkeit der aktuellen Rechtslage für grenzüberschreitende Aktivitäten.

5.

Kritische Trends ^

[22]
Es gibt aktuell verschiedene Trends in der Technologieentwicklung und der Technologienutzungsentwicklung, die viele praktische und rechtliche Probleme schaffen und neuen Regulierungsbedarf entstehen lassen. Eine umfassende Beschreibung ginge über den Rahmen dieses Beitrags hinaus. Wir diskutieren aber einige Beispiele.

5.1.

Die seltsamen Phänomene der «Internetisierung» ^

[23]
Grosse soziale Wirkung entfaltet die «Internetisierung» der Gesellschaft unter anderem durch das Informationsverteilungsverhalten und das Persistenz-Verhalten des Internets. Rein phänomenologisch fällt auf, dass es einige in sich gegenläufige oder auch anti-orthodoxe Entwicklungen gibt: Beispielsweise vergisst das «Internet» wenig – und de facto wird Internetnutzern es oft verweigert, ihre Spuren aus dem Netz zu löschen – das Internet kann aber auch das Erinnern nicht garantieren. «Es» verteilt Information und konsolidiert sie mit den gleichen Mechanismen, obwohl beides von der Sache her konträre Tätigkeiten sind. Im Bereich des E-Banking wiederum erweist sich – anti-orthodox – das vorschriftswidrige Nicht-Löschen von Daten als datenschutzwidrig und zugleich potentiell eher kundenfreundlich (weil es eine Informationsbasis für Kulanzentscheidungen liefert). Deshalb wird es toleriert und die Missachtung des Datenschutzes zur gängigen Praxis.
[24]
Die Situation in Bezug auf den Lebenszyklus von Informationen im Internet, ihr Auf- und Untertauchen, ist oft genug kafkaesk und schwer vorherberechenbar. Eine entscheidende Rolle spielt dabei das Verhalten der physischen (nicht rechtlichen) Datenherren, das sich bisher in vielerlei Hinsicht als unkontrollierbar erwiesen hat. Die Gemengelage ist insbesondere in digitalen sozialen Medien komplex, weil der willkürliche Rückzug bereitgestellter Information potentiell sich als Kontextänderung auf andere Informationen auswirkt und die Bereitsteller dieser Information schädigen kann.
[25]
Peer-to-peer Netzwerke sind eine technische Antwort auf das Verhalten der physischen Datenherren, die wohl bei den meisten Beteiligten auf der Annahme der Wirkungslosigkeit rechtlicher Regelungen basiert und soziale und technische Ideen mischt. Sollten sich diese Netzwerke breit durchsetzen, wird sich zeigen, ob die Technik bessere Schutzwirkungen entfalten wird als gesetzliche Regelungen.
[26]
Das Zusammenspiel zwischen Technik und Gesellschaft ist jedenfalls hochdynamisch. Die neuen tatsächlichen und vermeintlichen technischen Möglichkeiten bewirken unter anderem soziale Reaktionen, die in die entgegensetzte Richtung wirken. Die Archivierungsfunktion des World Wide Web führt z.B. zu einer Anpassung des Nutzerverhaltens, die wieder neue Informationsverlustrisiken schafft. Unklar und politisch sehr brisant ist die mögliche Wirkung erhöhter politischer Transparenz auf die Transparenz-Bereitschaft der Politik.
[27]
Unter dem Strich fällt vor allem zweierlei auf. Erstens soll im Internet die Technik schützen, was Gesetze nicht zu schützen vermögen. Dabei ist oft unklar ist, wie sehr das Nichtbeherrschen der technischen Möglichkeit – beispielsweise im Bereich der Datensicherheit – einen Gesetzesverstoss im Fall von kriminellen Tätigkeiten Dritter darstellt. Zweitens stellt das soziale Verhalten der Internetnutzer Form und Inhalt mancher gesetzlicher Regelungen, wie beispielsweise dem Datenschutz, sehr in Frage stellen und legt damit eine politische Neuverhandlung nahe.

5.2.

Probleme durch «virtuelle» Informationsverluste ^

[28]
Der Technologie entwickelt sich immer weiter in Richtung «Alles ist ein Computer». Es wird immer einfacher möglich, diesen «Computer» über Verhaltensdefinitionen (Policies) zu steuern und die zu beziehenden Leistungen über Leistungsvereinbarungen (Service Level Agreements) zu regeln. Damit verbunden ist der (erwünschte) Verlust über das Wissen, wie, wo und von wem Leistungen erbracht werden. Das Rechtsprinzip der Einheit von Ortung und Ordnung7 lässt sich in dieser Situation nur mehr schwer implementieren. Dies wirft mehrere grundsätzliche Fragen auf, die sich sowohl operativ praktisch als auch rechtlich stellen:

  • Wie kann sichergestellt werden, dass Daten, die in Zukunft gelöscht werden müssen, auch gelöscht werden können? Wie ist dies rechtlich zu regeln?
  • Wie kann zweifelsfrei festgestellt werden, wer für Datenverarbeitungsschritte oder Nicht-Schritte die Verantwortung trägt und welche Gesetze in länderübergreifenden Kontext tatsächlich gültig sind?
  • Wie kann ich in einer Ein-Computer-Welt wissen, wie sehr ich meinem vertrauenswürdigen Zugang zu diesem Computer tatsächlich vertrauen kann, wenn die a priori vertrauenswürdige Maschine dahinter Leistungen von anderen Maschinen bezieht, die ihrerseits Leistungen anderer Maschinen beziehen?8 Wie weit reicht meine Verantwortlichkeit?
  • Wie können Abläufe des Datenmanagements rekonstruiert werden? Und wie sind technologiebedingte Beschränkungen der Rekonstruierbarkeit rechtlich zu handhaben?
[29]
Beispiele für Technologien mit de facto Informationsverlust sind die Virtualisierung von Speichern und ganz allgemein Cloud Computing. Generell zeigt sich, dass man mit geografischer Grenzziehung in der virtuellen Welt der Informatik schnell an Grenzen stösst. Untersucht werden sollte deshalb, ob es nicht über die Abstraktionen der Architektur-Dokumentation in der Informatik möglich ist, sinnvollere Zuordnungen von Aktivitäten zu Verantwortlichen, respektive nationalen Hoheitsbereichen vorzunehmen.

5.3.

Regulierungsbedarf für die Bewirtschaftung digitaler Identitäten ^

[30]
Unter digitaler Identität verstehen wir die Menge aller auf eine Person bezogenen Daten. Diese Definition umfasst auch anonyme Identitäten. Eine spezielle Teilidentität stellen die digitalen Repräsentanten dar, die oft als eIDs bezeichnet werden.
[31]
Durch die Nutzung verschiedenster Kommunikationswerkzeuge, die Nutzung von neuen eIDs und vor allem die Nutzung des Web 2.0 wächst die Grösse einzelner digitalen Identitäten stark an. Dies und der Fortschritt der Rechengeschwindigkeit und der künstlichen Intelligenz machen es – unter anderem – möglich, immer häufiger auch anonyme digitale Teilidentitäten zu de-anonymisieren und damit die Privatsphäre wesentlich zu stören oder gar schwerwiegende Verbrechen zu begehen.
[32]
Darüber hinaus zeichnet sich das zukünftige Entstehen eine Zweiklassengesellschaft von eID-Besitzern und eID-Nichtbesitzern ab, weil immer mehr Geschäftsinteraktionen und soziale Interaktionen in Zukunft über die Nutzung von eIDs passieren werden. Deshalb stellt sich unter anderem die Frage, ob ein Bürger nicht das Recht auf eine eID hat, aber auch die Frage, wer eIDs ausgeben darf. Die wachsende Erkenntnis, dass im digitalen Identitätsmanagement sich letztendlich offene Systeme durchsetzen werden, wirft zudem die Frage auf, ob und in welcher Weise die Ausgabe von Eigenschaftszertifikaten reguliert werden sollte.
[33]
Dass die rechtliche Situation heute oft sehr unbefriedigend ist zeigt das Beispiel der SuisseID, die auf dem Schweizer Bundesgesetz über die elektronische Signatur (ZertES)9 beruht, das den Besitzer in einem Ausmass verantwortlich macht für einen möglichen Missbrauch, dass es fraglich ist, dass dies im konkreten Fall so haltbar ist.

5.4.

Atomisierung, Verlinkungen und Einbettung von Intelligenz in die Dokumentenwelt ^

[34]
Das digitale Dokumentenmanagement hat in den letzten Jahren grosse Fortschritte gemacht. Nicht nur dass Dokumente atomisieren, weil einzelne Absätze, Wörter, Buchstaben oder gar Bits referenzierbar werden, sondern durch verschiedenste Formen von expliziter, impliziter und indizienbasierte mutmasslicher Verlinkungen entstehen ganz neue Zusammenhänge und Dokumente bekommen eine Vergangenheit und eine Zukunft. Ob dies eventuell neue Gefahren von Informationsfehlinterpretationen schafft, kann noch nicht beantwortet werden. Grundsätzlich stellt sich schon heute die rechtliche Frage, inwieweit explizit verlinkte Dokumente zu einem Dokument gehören oder nicht, oder wie ein Link sonst aufzufassen ist (da er nicht Teil des Texts, aber Teil des Dokuments ist).
[35]
Die Einbettung von Intelligenz, respektive Geschäftslogik, macht überdies aus Dokumenten eigentlich Software-Agenten. Vorstellbar sind lernende, sich selbst verändernde Dokumente. Ob dies neuen Dokumente Regulierungsbedarf schafft oder gar die im dritten Kapitel skizzierten Fragen neu so formuliert werden müssen, dass sie die Verteilung von Intelligenz im System mit umfassen, wird die zukünftige Erfahrung zeigen. Wirklich überschauen lassen sich die Folgen der Integration von Dokumenten mit Geschäftslogik nur schwer. Es liegt z.B. nahe, Programmierfehler in intelligent angereicherten Dokumenten gleichzusetzen mit falschen Textangaben in den Dokumenten; aber es ist klar, dass sich Situationen konstruieren lassen, in denen alles nicht mehr so klar ist.

5.5.

Die Welt als Ereignisstrom und überbordender Intelligenz im System ^

[36]
Ereignisgesteuerte Architekturen gewinnen an Popularität, wobei ihr praktischer Erfolg oft mit der Existenz von Bereichsontologien steht und fällt. Es zeichnet sich ab, dass es in Zukunft möglich sein wird, das Geschehen in digitalen sozialen Medien als Ereignisströme in eine Bus- und Broler-Architektur mit einer Filterinfrastruktur so einzuspeisen, dass mit entsprechenden Verarbeitungswerkzeugen komplexe Zusammenhänge identifiziert werden können – allerdings mit hohem Risiko, Fiktionen zu generieren, bzw. mit grossen Möglichkeiten, andere zu manipulieren. Ohne empirische Beobachtung nur mit rein theoretischen Überlegungen können die Folgen davon nicht abgeschätzt werden, doch ist klar, dass das Bereitstellen bzw. Nutzen der richtigen Kontextinformation äusserst wichtig ist und dass durch selektives Entfernen von Information gerade in der Eventfolgenverarbeitung neue, potentiell falsche, Sinnzusammenhänge generiert werden können.
[37]
Aufbauend auf ereignisgesteuerten Architekturen wird es möglich werden, sehr viel Intelligenz zwischen Kommunikationspartner zu schalten – beispielsweise in Gruppendiskussionen oder in der Kommunikation in Katastrophensituationen – so dass unter anderem das Kooperationsverhalten in Richtung effektivere Kooperation gesteigert wird. Einige der Systeme werden also bewusst auf Manipulation hin ausgerichtet sein, basierend auf selektiver, integrierter und eventuell automatisch verfälschter Informationsbereitstellung. Dies wird neue, interessante Fragen nach Verantwortlichkeiten, nach Informationspflichten und eventuell nach weiterem Regulierungsbedarf aufwerfen. Und es wird sicher nicht die letzte technologische Evolution sein, die dies tut.

5.6.

Zusammenfassung der Trendbeispiele ^

[38]
Die hier skizzierten Trendbeispiele lassen sich zu einem Gutteil mittels der im 4. Kapitel untersuchten Methoden untersuchen und bewerten. Sie zeigen sehr deutlich, welche Auswirkungen unterschiedliche Gestaltungen der Transparenz haben können und wie der Technologie- und der Technologienutzungsfortschritt die jeweilige Problematik verschärfen und potentiell zu neuem Regulierungsbedarf führen. Der Versuch, Probleme mit Technologie zu lösen ist weit verbreitet, schafft aber in der Regel mit den Problemlösungen wieder neue Probleme.



Reinhard Riedl, Forschungsleiter, Berner Fachhochschule, Fachbereich Wirtschaft und Verwaltung
Morgartenstrasse 2c, Postfach 305, 3000 Bern 22 CH
Reinhard.riedl@bfh.ch ;http://wirtschaft.bfh.ch


  1. 1 Riedl, Reinhard ; Moores Information Hiding Prinzip, Periskop 36, 39, [2008].
  2. 2 Vgl. u.a.Tanenbaum, Andrew; van Stehen, Maarten ; Verteilte Systeme: Grundlagen und Paradigmen, 2. Auflage, Pearson Studium [2007].
  3. 3 Kuschnik, Bernhard ; The Sarbanes Oxley Act: «Big Brother is watching» you or Adequate Measures of Corporate Governance Regulation?, Rutgers Business Law Journal, 64–95 [2008].
  4. 4 Kubicek, Herbert , The Diversity of National E-IDs in Europe: Lessons from Comparative Research. Identity in the Information Society, Vol 3 No 1. Dordrecht, NL: Springer. (2010).
  5. 5 Riedl, Reinhard , Rethinking Trust and Confidence in European E-Government, in Lamersdorf, Winfried; Tschammer, Volker; Amarger, Stéphane; Building the E-Society: E-Commerce, E-Business, and E-Governnment, 89 – 108, [2004].
  6. 6 Rancière, Jaques , The Politics of Aesthetics, MPG Books Ltd, [2004].
  7. 7 Schmitt, Carl, Der Nomos der Erde, Unterkapitel: Das Recht als Einheit von Ordnung und Ortung, 13-20, [1950].
  8. 8 Dies ist de facto seit langem bei der Nutzung des World Wide Web der Fall, die aus guten Gründen so organisiert ist, dass die zwischengeschalteten Maschinen (Router) dem Nutzer verborgen bleiben.
  9. 9 Bundesgesetz vom 19. Dezember 2003 über Zertifizierungsdienste im Bereich der elektronischen Signatur.