Jusletter IT

Der Fall Bettina W. oder: Vom Versuch, einen Algorithmus zu verklagen

  • Author: Elisabeth Heinemann
  • Category: Articles
  • Region: Germany
  • Field of law: IT-Law
  • Collection: Tagungsband-IRIS-2013
  • Citation: Elisabeth Heinemann, Der Fall Bettina W. oder: Vom Versuch, einen Algorithmus zu verklagen, in: Jusletter IT 20 February 2013
Der vorliegende Beitrag diskutiert Googles Autocomplete-Algorithmus hinsichtlich seiner ethischen und moralischen Beeinflussung der digitalen Gesellschaft. Und er zeigt auf, wie solche zur Manipulation einladenden Werkzeuge, die auch und gerade die Jurisprudenz weltweit beschäftigen, durch entsprechend qualitativ fundierte Modellierung – wir sprechen hierbei von formal korrekten, material korrekten und pragmatisch geRECHTfertigten (Internet-)Konzepten – ihrer manipulativen Macht beraubt werden können, so dies von den Protagonisten überhaupt gewollt ist.

Inhaltsverzeichnis

  • 1. Ein Algorithmus und die Erkenntnis, was Menschen bewegt
  • 1.1. Eine Frage der Schuld
  • 1.2. Wer suchet, der entscheidet
  • 2. Rechtsfragen, sprachbasierte Technologien und Modellierung
  • 2.1. Technologische Intelligenzverstärker
  • 2.2. Modellierung vor Programmierung
  • 3. Fazit

1.

Ein Algorithmus und die Erkenntnis, was Menschen bewegt ^

[1]
Als der US-amerikanische Schauspieler Robert Downey Jr. in der auf BBC laufenden The Graham Norton Show mit dem Ergebnis des Googelns seines Namens bzw. der automatischen Ergänzung desselben im Eingabefeld der bekannten Suchmaschine konfrontiert wurde1, so war dies Anlass zu großem Amüsement. Im Falle von Bettina W. riefen «Escort-Service» und «Prostituierte» auf Seiten der Kritiker Ihres Gatten jedoch nur Häme und bei der Betroffenen selbst verständlicherweise große Empörung hervor.

1.1.

Eine Frage der Schuld ^

[2]

Um zu verstehen, was geschehen war, muss man zunächst einmal erfassen, auf was Google technologisch gesehen seine «Macht» begründet. Diese ruht in erster Linie auf drei Pfeilern2:

  • zum einen dem Crawler oder auch Googlebots, also einer funktionsstarken Software, die das Netz permanent nach Aktualisierungen bereits von Google indizierter Seiten, sowie neu hochgeladener Inhalte durchsucht,
  • einer höchst effizienten Technologie, welche die durch den Crawler aufgefundenen Informationen indiziert und
  • last but not least den patentierten Sortieralgorithmus, der den so genannten PageRank® einer Seite errechnet, der wiederum die Linkpopularität derselben angibt. Mit ihm und auf Grundlage weiterer über 200 Kriterien werden dann diejenigen Seiten herausgesucht, die auf den vom Benutzer gesuchten Begriff am besten passen und als Suchergebnis angezeigt.
[3]

Um seinen Benutzern das Suchen so komfortabel wie möglich zu gestalten, gibt es die so genannte Autocomplete-Funktion. Und um zurück zum behandelten Fall zu kommen: diese präsentierte bei Eingabe des Namens der betreffenden Person das Ergebnis u.a. der meisten Suchanfragen der letzten Zeit und spiegelte auf diese Weise wider, was die Menschen mehrfach thematisch bewegt haben musste: eben Bettina W. und die bereits erwähnten Stichworte zweifelhaften Hintergrunds. Denn Google bietet im Rahmen der automatischen Vervollständigung Suchanfragen an, die zum einen aus den Suchaktivitäten aller Webnutzer zu dem gleichen oder ähnlichen Suchbegriff stammen und zum anderen aus dem Inhalt der von Google indizierten Webseiten3.

1.2.

Wer suchet, der entscheidet ^

[4]
Schnell waren Verantwortliche und Presse dabei, den Algorithmus für dieses «Cyber-Mobbing» zur Verantwortung zu ziehen. Ein interessanter Weg, den Schuldigen auszumachen. Hätte man sich dieser Taktik bereits vor Jahrzehnten bedient, so wäre beispielsweise Mark David Chapman heute ein freier Mann, wohingegen seine 38er seit über 30 Jahren wegen des Mordes an John Lennon im Gefängnis säße.
[5]
Im Falle von Bettina W. waren also alle «gerne» bereit, den Algorithmus, d.h. hier eine Technologie zu beschuldigen, ohne zu beachten, dass dieser lediglich das Abbild einer «subjektiven», von zahlreichen Subjekten gedankenlos verursachten Wirklichkeit darstellt und demzufolge eine Abstraktion derjenigen ist, die ihn – womöglich böswillig – falsch modelliert und dann programmiert haben. Und die auch jegliche Verantwortung dafür im Vorfeld von sich weisen. So liest man unter der Frage «Prüft Google die Ergebnisse der automatischen Vervollständigung?» bei Google selbst Folgendes4:
[6]
«Automatisch vervollständigte Suchanfragen werden algorithmisch anhand einer Reihe von Faktoren berechnet. Zu diesen Faktoren zählt unter anderem die Beliebtheit der Suchbegriffe. Analog zu bestimmten Bereichen im Web können die Suchanfragen merkwürdige oder ungewöhnliche Wörter oder Wortgruppen enthalten. Obwohl wir stets darum bemüht sind, die unterschiedlichen (teilweise guten, teilweise fragwürdigen) Inhalte im Web zu erfassen, gelten strenge Richtlinien hinsichtlich der Entfernung von Pornografie, Gewalt, Hassreden und Begriffen, die häufig für die Suche nach Inhalten verwendet werden, die gegen Urheberrechte verstoßen.»
[7]

Zur Verantwortung ist also freilich nicht, wie Medienecho und empörte Öffentlichkeit seinerzeit vermuten ließen, der Algorithmus selbst zu ziehen, sondern seine «Macher». Sie haben es zugelassen, dass die so genannte Crowd (die das Web 2.0 nicht nur konsumierende, sondern durch Interaktionen mitgestaltende Menge aktiver Internetnutzer) durch mehrfaches Eingeben bestimmter Worte einen Zusammenhang zwischen Begriffen schuf, der weder durch Fakten-Check abgesichert noch moralisch angemessen, sondern – wie im Falle von Escort-Service & Co. – einfach unanständig war. Oder wie es der Internet-Kolumnist Sascha Lobo ausdrückt5: «Das Internet hat keinen Naturzustand, es ist ein durch und durch menschliches Konstrukt. Jeder Pixel, jedes Bit ist an seiner Stelle, weil irgendjemand es so wollte (oder die technischen Konsequenzen nicht ganz überblickt hat).»

2.

Rechtsfragen, sprachbasierte Technologien und Modellierung ^

[8]

Wie soll nun aber die Rechtsinformatik mit solchen Fragen umgehen? Sie tut sich schwer, ohne Frage, was sie aber nicht müsste, wenn sie über eine moderne wissenschaftstheoretische Fundierung vor allem hinsichtlich jeglicher Begriffsklärung verfügen würde, wie es bei der (Sprachbasierten) Informatik und auch der Wirtschaftsinformatik bereits seit über 30 Jahren der Fall ist6. Hier wird beispielsweise klar zwischen Begriffswort, Intension und Extension eines Begriffes unterschieden, um auf diese Weise sprachliche Defekte wie Synonyme, Homonyme oder Äquipollenzen aufzudecken und somit ungewollte Konsequenzen von vorneherein zu verhindern7. Freilich arbeitet auch der gescholtene Autocomplete-Algorithmus nicht mit derlei Grundlagen, denn seiner Programmierung ist eben gerade keine Modellierung der Inhalte vorausgegangen.

2.1.

Technologische Intelligenzverstärker ^

[9]
Es kann und muss also Auftrag einer Rechtsinformatik sein, derlei Systeme, die der Böswilligkeit von Seiten der Entwickler ebenso wie der Benutzer Tür und Tor öffnen, zu verhindern bzw. ihrerseits rechtschaffende Systeme zu modellieren und zu entwickeln. Und der Trend geht zweifelsfrei in eine solche Richtung, nämlich mit der Entwicklung ganzheitlich-interaktiver Anwendungssysteme, welche die Automatisierungswelle der zweiten Hälfte des 20. Jahrhunderts dabei sind abzulösen und auch arbeitsseitig auf eine Mensch-Technik-Interaktion (MTI) statt nur auf Automation setzen8. Solche Systeme wie z.B. das heute bereits millionenfach im Einsatz befindliche Navigationssystem im Auto unterstützen den Menschen bei der Erfüllung seiner Aufgabe («fahre von A nach B»), ermöglichen ihm aber letztendlich doch ein selbstbestimmtes Handeln, zur Not auch entgegen der Empfehlung des technologischen Intelligenzverstärkers.
[10]

Das hier begrifflich zugrunde gelegte Anwendungssystem9 kann dabei sowohl von einem technischen System als auch von einem Individuum oder auch einer Gemeinschaft aus ganzheitlich, interaktiv und global eingesetzt werden. Zum Betrieb solcher Systeme, mit denen sowohl Basis- als auch Anwendungssoftware gemeint sind, mussten gänzlich neue, sprachbasierte Technologien entwickelt werden, die sich in allen Arten von Mensch-involvierten Interaktionsprozessen als Steuerungssoftware (Human-involved Control Systems) sinnvoll einsetzen lassen. Unabdingbar ist bei der Entwicklung solch ganzheitlich-interaktiver Anwendungssysteme der Grundsatz erst zu modellieren (und zwar mit Bezug auf und aus Sicht der Praxis auch die «Inhalte»), und erst dann zu programmieren10. Dieses Vorgehen gewährleistet bezüglich ihrer Qualität durchaus als neu einzustufende Schutz- (syntaktisch, semantisch, moralisch, ethisch, etc.) als auch Sicherheits-vorkehrungen (gegen Missbrauch und Angriffe) und zwar gerade auch hinsichtlich der modellierten Inhalte11. Beim Entwickeln eines solchen Typus von Anwendungssystemen wird neben formaler und materialer (inhaltlicher) Qualitätssicherung die «pragmatische Rechtfertigung» zur wichtigsten Qualitätssicherungsmaßnahme12.

2.2.

Modellierung vor Programmierung ^

[11]
Um solche Anwendungssysteme zu entwickeln, muss zuvor aus der Praxis für die Praxis modelliert werden. Dies kann beispielsweise dadurch «erzwungen» werden, indem man einem entsprechenden Vorgehensmodell wie beispielsweise dem Multipfad-Vorgehensmodell folgt, das diesem Grundsatz gerecht wird. Bei diesem wie bei anderen ähnlich gearteten Modellen handelt es sich um eine universell einsetzbare Methodologie für die Anwendungs(system)entwicklung, die sich wie folgt darstellt13:
[12]
Ausgehend von der Mangelfeststellung, also dem zu lösenden Problem können bei diesem Vorgehen mehrere Wege (Pfade) gewählt werden, je nachdem, welche Voraussetzungen gegeben sind. Ergibt die Voruntersuchung, dass eine Standardlösung ausreichend ist, so endet die «Entwicklung» des Systems nach Auswahl oder Outsourcing desselben in einem standardisierten Gebrauch. Ist dies jedoch nicht der Fall, so wird ein Fachentwurf angefertigt, also eine methodenneutrale Rekonstruktion des Wissens aus dem betrachteten Anwendungsbereich in Form von Aussagen und Begriffen. Werden die hier identifizierten und im Fachkonzept festgehaltenen Erfordernisse durch eine Komponentenlösung abgedeckt, so erfolgt eine entsprechende Konfigurierung und somit ein «Abbiegen» auf den bereits bekannten Pfad der Stabilisierung und des Gebrauchs. Ergibt die Wissensrekonstruktion jedoch die Notwendigkeit zur Individuallösung, so erfolgt die Daten- und Prozessmodellierung durch den nunmehr methodenspezifischen Systementwurf (z.B. durch UML und BPMN). Das Ergebnis ist eine individuelle Lösung, die nun ihrerseits nach erfolgter Implementierung (und Programmierung) den bekannten Weg der Konfigurierung, Stabilisierung und des Gebrauchs einschlägt.
[13]
Ein solcher «Zwang» zur Modellierung vor der Programmierung gewährleistet, dass nicht am Bedarf vorbei entwickelt wird, derweil alle relevanten Fachbegriffe und -aussagen zuvor geklärt und von eventuellen sprachlichen Defekten befreit wurden.

3.

Fazit ^

[14]
Die Rechtsinformatik hat alles Potential, das es braucht, um sich im «Wettbewerb» der Bindestrich- bzw. Anwendungsinformatiken erfolgreich zu behaupten. Aber sie sollte handeln, da thematische Nähe und Branchenbedeutung des größten «Mitbewerbers», der Wirtschaftsinformatik, eine freundliche (?) Übernahme durchaus in den Bereich des Möglichen rücken. Denn vom Standpunkt einer jeden Anwendungsinformatik aus gesehen, die über eine hieb- und stichfeste Methodenlehre verfügt, bietet die Rechtsinformatik nichts weiter als einen «interessanten Anwendungsfall». Diese Gefahr wäre aber zweifelsfrei gebannt, wenn sie sich nicht nur auf ihre vordergründig inhaltlichen Kernkompetenzen verlassen, sondern diese (endlich) mit einer modernen Wissenschaftstheorie als zugrunde liegender Methodenlehre untermauern und somit unantastbar machen würde. Und dies kann nur gelingen, wenn auch sie aus ihrer jeweiligen Praxis heraus dem Credo «Erst modellieren, dann programmieren oder besser gesagt Recht sprechen!» folgt.

 


 

Elisabeth Heinemann, Professorin, Fachhochschule Worms, Fachbereich Informatik.

 


 

  1. 1 http://www.youtube.com/watch?v=DJT67NApROI aufgerufen: 20.11.2012.
  2. 2 Vgl. Lopez-Taruella, Introduction: Google Pushing the Boundaries of Law, In: Lopez-Taruella (Hrsg.), Google and the Law, Information Technology and Law Series (22), T. M. C. Asser Press.
  3. 3 http://support.google.com/websearch/bin/answer.py?hl=de&answer=106230&topic=1186810&ctx=topic aufgerufen: 08.01.2013.
  4. 4 Siehe FN 3.
  5. 5 http://www.spiegel.de/netzwelt/netzpolitik/google-suchvorschlaege-was-bettina-wulff-mit-mettigeln-verbindet-a-855097.html aufgerufen: 20.11.2012.
  6. 6 Vgl. Ortner, Die Sprachbasierte Informatik – wie man mit Worten die Cyberwelt bewegt, EAGLE, Leipzig (2005).
  7. 7 Vgl. Heinemann, Sprachlogische Aspekte rekonstruierten Denkens, Redens und Handelns: Aufbau einer Wissenschaftstheorie der Wirtschaftsinformatik, DUV, Wiesbaden (2006).
  8. 8 Vgl. Heinemann/Ortner/Sternhuber, Public Policymaking Meets HCI-Community: Memorandum of the Global Human-Technology-Interaction (Draft), Workshop-Einreichung auf der CHI 2013, Paris.
  9. 9 Vgl. z.B. Stiehl, Prozessgesteuerte Anwendungen entwickeln und ausführen mit BPMN: Wie flexible Anwendungs-architekturen wirklich erreicht werden können, dPunkt, Heidelberg (2012).
  10. 10 Vgl. Heinemann, Jenseits der Programmierung: Mit T-Shaping erfolgreich in die IT-Karriere starten, Hanser, München (2010).
  11. 11 Vgl. Ortner, Policy and Security in Digital Networks from the Perspective of Modeling and Software Development, Proc. of the Third International Conference on Networks & Communication, Berlin/Heidelberg (2012), 125-137.
  12. 12 Vgl. Alber/Elzenheimer, Modellqualität in der agilen Entwicklung: Eindämmung von Missbrauch durch pragmatisch gerechtfertigte Lösungen, Tagungsband des Int. Rechtsinformatik Symposions (IRIS), Salzburg, Österreich (2013).
  13. 13 Siehe FN 6.