1.
Einleitung ^
Folgt man der alltäglichen Berichterstattung in den Medien, so sind Phrasen, wie «Hasspostings», «Verhetzung im Netz» oder «Radikalisierung im Netz» allgegenwärtig. Vorurteile sind in unserer Gesellschaft seit jeher weit verbreitet, doch der digitale Raum verschärft das Thema zusehends. Auf Webseiten, in Online-Foren und Sozialen Medien sowie auf Video Plattformen verbreiten sich herabwürdigende und rassistische Beiträge rasant. So berichtet der Rassismus-Report 2018 des Vereins ZARA – Zivilcourage und Anti-Rassismus-Arbeit – dass drei von fünf Meldungen von Rassismus das Internet betreffen, zumeist in Form von Kommentaren auf Social Media.1 Die gezielte Verwendung von emotional hoch geladenen Inhalten und Hatespeech stellt einen festen Bestandteil des Kommunikationsarsenal populistischer Politiker/-innen und Parteien dar, welche die Grenzen des Sagbaren zunehmend zu verschieben trachten. Darüber hinaus wurde in zahlreichen Studien der vergangenen Jahre ein Zusammenhang zwischen Vorurteilen und der Bereitschaft zur Gewaltausübung offengelegt.
Aber wie kann man Aussagen dieser Art analysieren, um kriminelle Handlungen zu reduzieren und um die Inhalte der digitalen Kommentare zu bewerten? Im Rahmen eines gemeinsamen Forschungsprojektes beschäftigen sich unterschiedliche wissenschaftliche Disziplinen mit dieser herausfordernden Fragestellung. Aus sozialwissenschaftlicher, aber auch juristischer Sicht stellt die Vernetzung mit der Informatik einen wesentlichen Schulterschluss dar, da die jüngste Entscheidung des EuGH, Betreiber/-innen von sozialen Netzwerken verpflichtet, im Zusammenhang mit Persönlichkeitsrechtsverletzungen unzulässig qualifizierte Inhalte proaktiv zu überwachen und zu löschen2 in Diskrepanz zur Meinungs- als auch Pressefreiheit stehen kann. Diese Gradwanderung im Bereich Big Data, zwischen der notwendigen Löschung von rechtswidrigen Hasspostings und der Gefahr, durch die Grobmaschigkeit automatischer Verfahren auch zulässige Inhalte zu löschen und somit in eine Art der computerisierten Zensur abzudriften, wirft nach wie vor Fragen auf, die nur anhand eines transdisziplinären Zugangs beantwortet werden können.
2.1.
Methodische Herausforderungen ^
Durch ständig wechselnde Plattformen im digitalen Raum, Menge, Geschwindigkeit und Inhomogenität der Daten (Big Data), sowie die unterschiedliche Verwendung von Sprache in Kombination mit textuellen, visuellen und auditiven Elementen (mash-up) handelt es sich bei Social-Media-Kanälen um immens komplexe Informationsräume. In diesem Kontext sind herkömmliche Verfahren der Datenerhebung und Datenanalyse nur noch teilweise zielführend.3,4,5
Aus Sicht der Informatik stellen Verfahren aus dem Bereich des Natural Language Processing (NLP)6, insbesondere aus den Bereichen der Polaritäts- und Sentiment-Analyse7 – mit dem Ziel einer Klassifizierung von Einzeldokumenten (etwa einem Post)8 oder von Benutzer/-innen- Typen durch Analyse von Interaktionen und Verbindungen (Social Network Analysis, SNA)9 – aktuelle Ansätze dar dieser Herausforderung zu begegnen. Die automatische Erkennung und Klassifizierung von Hasspostings wird von Informatiker/-innen insbesondere im Rahmen von Machine Learning (ML) beforscht.10 Der Teilbereich des überwachten Lernens (supervised learning) baut auf Corpora von annotierten Daten auf und versucht aus diesen Regelmäßigkeiten zu extrahieren, welche später zur Klassifizierung eingesetzt werden. Die hierfür benötigten Daten stehen jedoch nur in wenigen Fällen in der dazu erforderlichen Qualität und Quantität zur Verfügung. Sprachliche Aspekte (Dialekt, Slang, ...) und eine inkonsistente Terminologie und Annotation von unterschiedlichen Datensätzen stellen weitere Faktoren dar, welche den Einsatz automatisierter Verfahren erschweren. Die Verwendung von Mustererkennung (Schlüsselwörter und -Phrasen, ...) stellt einen alternativen Ansatz dar, wobei hier jedoch wiederum die Auswahl und das Design der Muster eine Herausforderung darstellt. In beiden Fällen benötigt die Detektion von Hatespeech weiteren Kontext und darf nicht auf Einzeläußerungen limitiert sein. Der Miteinbezug dieses Kontexts und eine geeignete Kombination von Maschine und Mensch bieten einen möglichen Lösungsansatz. Multimediadaten – Audio, Bilder und Video-Inhalte – und deren Kombination mit textuellen und netzwerkspezifischen Faktoren stellen einen aktuellen Forschungsbereich dar. Alle genannten maschinellen Verfahren können im Allgemeinen problemlos auf umfangreiche Datensätze angewandt werden. Das tatsächliche Portfolio an Technologien und Methoden hängt jedoch letztlich von den zu untersuchenden Plattformen selbst sowie deren Zugriffs-Möglichkeiten (APIs) und Nutzungsbestimmungen11 ab. In Hinblick auf die notwendige Kontextualisierung der Ergebnisse werden vorerst Indikatoren oder Rankings von Dokumenten und Benutzer/-innen destilliert, welche aber letztlich durch Analyst/-innen interpretiert werden müssen.12 Automatische Verfahren sind somit durch konventionelle Inhaltsanalysen (quantitativ als auch qualitativ) mit Hilfe verständiger menschlicher Codierer/-innen zu ergänzen und weiterzuentwickeln.
Während also technische Ansätze die Verarbeitung großer Datenmengen – unter den genannten technischen Herausforderungen – ermöglichen, weisen sie Schwächen in der Rückbindung des Datenmaterials auf. Das Dilemma besteht darin, dass die hohe Effizienz automatisierter Verfahren häufig mit einem Mangel an Validität einhergeht. Genauer: Man findet zwar (immer) Strukturen in den Daten, weiß aber nicht (immer), was sie bedeuten. Folglich ist eine Koexistenz von automatisierten sowie konventionellen Inhaltsanalysen zu forcieren. Verfahren der konventionellen Datenanalyse entwickelten sich aus über Jahrzehnte gewachsenen wissenschaftstheoretischen und methodologischen Ansprüchen, von denen die aktuellen Verfahren der automatisierten Analyse weit entfernt sind.13 Um Hasspostings sozialer Medien angemessen erfassen und analysieren zu können, müssen eine Reihe methodischer Probleme bewältigt werden. Ausgehend von theoretischen Konzepten der sozialwissenschaftlichen Identitäts- und Medienwirkungsforschung14,15,16,17,18,19 wurden theoretisch abgeleitete Indikatoren ermittelt, die eine schrittweise Abweichung bzw. Ablehnung von kollektiven Konzepten der Nation, des Staates und der Demokratie signalisieren – und nicht zuletzt, den Grad sowie die Quantität strafrechtlicher Relevanzen festmachen.
Kurzum: Weder automatisierte noch konventionelle Verfahren alleine sind in der Lage, große Datenmengen im Netz effizient und empirisch zu erfassen, relevante Elemente effizient zu detektieren und zu analysieren.
2.2.
Forschungsdesign ^
Wenngleich das Thema «Hasspostings im Internet» eine hochaktuelle gesellschaftspolitische Relevanz einnimmt und eine disziplingebundene Auseinandersetzung aus den genannten Gründen als nicht zielführend erscheint, sind notwendige transdispizlinäre Ansätze nur mangelhaft vorhanden. Diese Lücke möchte das aktuelle Forschungsvorhaben schließen. In Verschränkung der automatisierten Analyse der Informatik, der quantitativen Analyse der Kommunikationswissenschaft und der qualitativen Analyse der Rechtswissenschaften und Kriminalsoziologie, wurden strafrechtlich relevante Aussagen näher charakterisiert und methodische Problemstellungen, sowie deren Auswirkungen auf aktuelle rechtliche Ansätze, herausgearbeitet. Als Fallbeispiel zur Veranschaulichung des eingesetzten Vorgehens und der Ergebnisse, werden im Folgenden die Hasspostings rund um die Identitäre Bewegung, welche gerade im deutschsprachigen Raum als vor allem virtuelles Phänomen der mediatisierten Radikalisierung der Gesellschaft verortet wird, herangezogen.20,21,22,23 Im Rahmen des hier durchgeführten Forschungsvorhabens wurden sowohl eine klassische Inhaltsanalyse als auch eine automatisierte Inhaltsanalyse durchgeführt. Ziel beider Analysen war es Muster zu erkennen, die auf die strafrechtliche Relevanz der Aussagen hinweisen. Dabei stellt sich die Subforschungsfrage, ob eine automatisierte Analyse eine konventionelle ersetzen kann, bzw. in welcher Art sie sich ergänzen könnten. Um den verschiedenen Forschungsfragen nachzugehen wurden jene öffentlichen Aussagen herangezogen, welche im Zeitraum von Jänner–Mai 2019 auf den Twitter und Facebook Accounts der Identitären Bewegung sowie von Martin Sellner gepostet wurden.
3.
Charakterisierung strafrechtlich relevanter Aussagen auf Social Media ^
Figure 1: Das Klassifizierungs-Schema zu strafrechtlich relevanten Aussagen.
Bei der Betrachtung der Daten zeigt sich, dass eine ausschließende Kategorisierung bei diesen schwer einzugrenzenden Aussagen wenig zielführend ist. Aus diesem Grund wird im Rahmen dieser Studie eine sich ergänzende Kategorisierung herangezogen, die darauf abzielt, möglichst viel Information zu einer Aussage abzubilden. Ziel ist es nicht, eine extremistische Aussage objektiv richtig einzuordnen, sondern die Bandbreite an gewaltvoller Sprache aufzuzeigen. Um diese Informationen zu gewinnen, kann eine Aussage auf fünf Gesichtspunkte hin befragt werden: Art der Gewalt, Art des Sprechaktes, Art der Straftat, Rolle des/der Sprechers/-in und Art des Opfers. Im folgen Artikel wird auf die nähere Charakterisierung nach Art der Straftat eingegangen.
3.1.
Art der Straftat ^
Als dritte Art der Differenzierung kann die Art der Straftat unterschieden werden, mit welcher eine Aussage in Verbindung gebracht werden kann. Dabei ist es an dieser Stelle nebensächlich, ob tatsächlich alle objektiven und subjektiven Tatbestände erfüllt sind. Diese Information kann aus der reinen Analyse der Aussage schwer gewonnen werden und bedürfte einer näheren Betrachtung der jeweiligen Akteur/-innen und Kontexte. Die Klassifizierung nach relevanten Paragraphen kann jedoch eine erste Verortung ermöglichen und liefert somit bereits Informationen zur Stoßrichtung der Aussage. Auf diese Weise sind auch die Beispiele zu betrachten, die lediglich ein Stimmungsbild vermitteln sollen, wie bestimmte Aussagen in der Praxis aussehen können. Dies soll auch aufzeigen, wie schwierig eine allgemeingültige Einordnung ist. In der Klassifizierung wurden folgende Straftaten unterschieden:
§ 282 StGB: Aufforderung zu mit Strafe bedrohten Handlungen und Gutheißung mit Strafe bedrohter Handlungen
Die Aufforderung zur Straftat umfasst die öffentliche Aufforderung oder Gutheißung einer mit Strafe bedrohten Handlung (z.B. Tötung, Verletzung, ...). Die Aussage muss dabei einer breiten Öffentlichkeit zugänglich sein.
Beispielsatz: «Am besten sofort ausweisen oder über Helmland-Afghanistan abwerfen als Luftfracht oder Übergepäck und Tschüss.»24
In der Aussage wird zu einer Handlung, welche als Tötungsdelikt verstanden werden kann (abwerfen als Luftfracht) aufgefordert (am besten sofort).
§ 282a StGB: Aufforderung zu terroristischen Straftaten und Gutheißung terroristischer Straftaten
Die Aufforderung zur terroristischen Straftat umfasst die öffentliche Aufforderung oder Gutheißung einer mit Strafe bedrohten terroristischen Handlung (z.B. Anschlag, ...). Die Aussage muss dabei einer breiten Öffentlichkeit zugänglich sein.
Beispielsatz: «Diese ganze feministische Scheiße kommt doch aus dem nordamerikanischen Raum. Man kann sich eigentlich fast nur wünschen, dass Kim Jong-un den Knopf drückt und dieses Drecksloch von der Karte fegt!»
In dieser Aussage wird eine Handlung gutgeheißen (Man kann sich eigentlich fast nur wünschen), die als terroristischer Akt eingestuft werden kann, da es darum geht einen ganzen Kontinent auszulöschen (dieses Drecksloch von der Karte fegt).
§ 283 StGB: Verhetzung
Die Verhetzung umfasst die Aufforderung zu Gewalt oder Hass gegen Minderheiten, deren Beschimpfung und Herabsetzung sowie die Verharmlosung und Rechtfertigung von Verbrechen gegen die Menschheit. Auch fällt die Verbreitung von Material, welches Hass oder Gewalt gegen Minderheiten gutheißt bzw. dazu aufstachelt unter diesen Paragraphen. Die Aussage muss dabei einer breiten Öffentlichkeit zugänglich sein.
Beispielsatz: «Hilfe vor Ort? Dass die sich noch schneller vermehren und ausbreiten? Wieviel Spendengelder wurden schon für dieses Drecksloch namens Afrika verschwendet? Eher werfe ich mein Geld in den Kamin als für asoziale wertlose Parasiten zu spenden!»
Mit der Aussage wird eine Minderheit (Drecksloch namens Afrika – Hilfsbedürftige Personen in Afrika) durch dehumanisierende Sprache beschimpft und herabgesetzt (asoziale wertlose Parasiten).
§ 107 StGB: Gefährliche Drohung
Die gefährliche Drohung umfasst die gefährliche Bedrohung die in Furcht und Unruhe versetzen soll, die Androhung von Tod, Verunstaltung, Gefährdung, Vernichtung der wirtschaftlichen Existenz und gesellschaftlichen Stellung sowie des Versetzens des Opfers in einen qualvollen Zustand über längere Zeit.
Beispielsatz: «9 mm in den Kopf verdient der eine oder andere. Und jeder bekommt früher oder später das was er verdient...»
In dieser Aussage findet sich eine versteckte und nicht direkt ausgesprochene Drohung. Erstens wird die Mordhandlung durch die Nennung eines Kalibers (9mm) getarnt, jedoch durch die Verortung als Morddrohung sichtbar (in den Kopf). Zweitens wird die Drohung nicht direkt angesprochen, sondern durch einen logischen Schluss (verdient der eine oder andere; jeder bekommt (...) was er verdient) getarnt.
§ 188 StGB: Herabwürdigung religiöser Lehren
Die Herabwürdigung religiöser Lehren meint die öffentliche Herabwürdigung oder Verspottung von Personen, Sachen oder Gegenständen der Verehrung.
Beispielsatz: «Gib mal her die Gebetsbücher. Dann habe ich was um den Kamin anzuzünden. Verbreitet euren Islam gefälligst in eurem Heimatland und verschont uns von dem Mist in Deutschland.»
Im Rahmen dieser Aussage wird ein religiöser Gegenstand (Gebetsbücher) durch die Androhung der Vernichtung (was zum Kamin anzünden) und Beschimpfung (Mist) herabgewürdigt.
§ 297 StGB: Verleumdung
Die Verleumdung umfasst die wissentlich falsche Beschuldigung einer Person, diese habe eine Straftat begangen, wenn diese dadurch einer behördlichen Verfolgung ausgesetzt wird.
Beispielsatz: «Scheiß EU, scheiß Merkel! Ihr seid Mörder!»
Diese Aussage verweist auf eine wissentlich falsche Beschuldigung verschiedener Akteur/-innen, diese hätten eine Straftat begangen (ihr seid Mörder). Gleichzeitig ist jedoch nicht davon auszugehen, dass diese Akteur/-innen daraufhin einer behördlichen Verfolgung unterzogen wurden. Darüber hinaus weist die Aussage auch Komponenten einer Beleidigung (Scheiß EU, scheiß Merkel) auf.
§ 111 StGB: Üble Nachrede
Die üble Nachrede meint die, für Dritte wahrnehmbare bzw. einer breiten Öffentlichkeit zugänglichen, Herabsetzung durch das Nachsagen einer verächtlichen Gesinnung/Eigenschaft, wenn diese falsch ist und der/die Sprecher/-in das wusste.
Beispielsatz: «Weil Tante Merkel nur Kriminelle liebt! Wir füttern nur Vergewaltiger und Mörder durch!» Im Rahmen der Aussage kommt es zu einer Herabsetzung der deutschen Bundeskanzlerin Angela Merkel (Tante Merkel). Der/die Sprecher/-in beschuldigt diese einer verächtlichen Gesinnung (Kriminelle liebt; füttern nur Vergewaltiger und Mörder durch), wobei davon ausgegangen werden kann, dass dem/der Sprecher/-in bewusst ist, dass es sich dabei um eine Falschaussage handelt.
§ 115 StGB: Beleidigung
Die Beleidigung meint das öffentliche Beschimpfen, Verspotten oder am Körper misshandeln bzw. die Androhung einer körperlichen Misshandlung.
Beispielsatz: «Nicht das noch eher mit dir Schluss ist du dreckiges Ungeziefer.»
Diese Aussage verweist sowohl auf eine dehumanisierende Beschimpfung (dreckiges Ungeziefer), jedoch genauso auf eine Drohung (nicht das noch eher mit dir Schluss ist).
§ 7 MGB: Verletzung des höchstpersönlichen Lebensbereiches
Die Verletzung des höchstpersönlichen Lebensbereiches umfasst das Bloßstellen in der Öffentlichkeit durch die Preisgabe von Informationen zum höchstpersönlichen Lebensbereich eines Menschen.
Beispielsatz: «London und deren pussy Bürgermeister auch: Bürgerscheißer! Der lutscht Schwänze.»25
Bei dieser Aussage handelt es sich nicht im eigentlichen Sinn um eine Verletzung des höchstpersönlichen Lebensbereiches, da, in Bezug auf die Motivation des/der Sprechers/-in (pussy Bürgermeister; Bürgerscheißer), eher von einer Beleidigung als der Preisgabe von Informationen zum höchstpersönlichen Lebensbereich auszugehen ist. Nüchtern gesprochen – also abgesehen von der kulturellen Prägung der Floskel als Beschimpfung – ist die angesprochene Handlung (lutscht Schwänze) jedoch eine nicht unter Strafe stehende. In jedem Fall ist es jedoch eine zutiefst persönliche Handlung, weswegen trotzdem von einem Eingriff in die Privatsphäre gesprochen werden kann.
Verbotsgesetz: Artikel I: Verbot der NSDAP
Das Verbotsgesetz verbiete die Wiederbetätigung für die Ziele und Ideale der NSDAP, die Aufrechterhaltung oder Wiederherstellung einer nationalsozialistischen Organisation sowie die Verharmlosung bzw. Rechtfertigung nationalsozialistischer Verbrechen und weiteres mehr.
Beispielsatz: «Ungerechtigkeit kann nur mit Gewalt besiegt werden. Die spielen wieder so lange mit dem Volk bis einer kommt so wie wir es schon hatten. Damals untergruben die Juden die Gerechtigkeit nur schreibt das kein Geschichtsbuch.»
Im Rahmen dieser Aussage kommt es zur Verharmlosung des Völkermordes durch die NSDAP, da die Opfer (Juden) als die Schuldigen deklariert werden (untergruben (...) die Gerechtigkeit). Darüber hinaus wird auch die Wiederbetätigung für diese Ziele positiv, als Rettung des Volkes, dargestellt (die spielen wieder so lange mit dem Volk, bis einer kommt).
4.1.
Die Methode der Erfassung und Analyse von Hasspostings ^
Dabei ergeben sich folgende Probleme:
A) Die sprachliche Dimension: Die Analysesoftware muss mit relevanten Wortlisten gefüllt werden, die dann im Rahmen der Analyse erkannt werden. Dabei muss man sich mit Dialektausdrücken, Emojis, szeneüblichen Abkürzungen sowie sprachlichen Codes und Symboliken auseinandersetzen. Da sich diese speziellen Sprachmuster laufend ändern, bedarf es einer fortwährenden Anpassung des Systems mit einer inhaltlichen Analyse der Sprachmuster. Darüber hinaus darf nicht vergessen werden, dass auch die scheinbar «objektive» Entscheidung eines technischen Systems, ihre Grundlage in der subjektiven Wahrnehmung eines/-r Programmierers/-in oder Entwicklers/-in findet. Nur weil also das System eine Aussage als strafrechtlich verwerflich identifiziert, ist dies noch lange keine wertfreie Entscheidung. Sollte der Weg nun also in die Richtung gehen, dass in Zukunft künstliche Intelligenzen über die Einstufung einer Äußerung zwischen Strafrecht und Meinungsfreiheit entscheiden, wird dies zur Verstärkung bestehender Ungleichheiten führen, denn «(...) the raw data that robots are using to learn and make decisions about the world reflect deeply ingrained cultural prejudices and structural hierarchies.»26
B) Die Bewertung der Inhalte: Nur aufgrund der Tatsache, dass jemand ein eindeutiges Sprachmuster verwendet, ist noch nicht klar, dass der Sinngehalt schon ein strafrechtlich verwerflicher ist. So können beispielsweise suggestive oder ironische Formulierungen durch das System (noch) nicht erkannt werden, was zu einer Überbewertung bestimmter Begrifflichkeiten führen kann. Ebenso wie eine Überbewertung bestimmter Worte ist auch ein Übersehen anderer möglich. So werden auf Social Media bestimmte Begriffe absichtlich nicht verwendet, Codes verwendet oder harmlose Sprachwendungen eingesetzt (z.B. «sich um jemanden kümmern») die nur im Rahmen ihres Kontextes sinngemäß interpretiert werden können. Darüber hinaus muss, um ein Hassposting in Hinblick auf eine mögliche strafrechtliche Relevanz hin zu befragen, zuvor geklärt werden, in welchem Land Täter/-in und Opfer angesiedelt sind, da eine juristische Betrachtung immer von der Gesetzgebung der Nationalstaaten abhängt. Dies hat die Folge, dass Hasspostings erfasst, aber häufig nicht weiterverfolgt werden können, da Täter/-innen außerhalb der EU angesiedelt sind. Dies bringt Probleme der Strafverfolgung mit sich. Auch bei der hier durchgeführten Analyse war nicht klar, wo die Täter/-innen tatsächlich ansässig sind. Durch die automatisierte Analyse konnte nur bedingt eine Eingrenzung auf Nationalstaaten durchgeführt werden.
4.2.
Abgrenzung zur Meinungsfreiheit ^
Das Recht auf Meinungsfreiheit wurde über Generationen hart erkämpft und stellt ein schützenswertes Gut dar. Zweifelsohne kann aber festgestellt werden, dass Hasspostings mittlerweile ein Teil unserer digitalisierten Gesellschaft sind. Durch die zielgerichtete Verbreitung von Text- und Videonachrichten werden politische Gesinnungen und Meinungen in den Sozialen Medien verbreitet. Diese Ausgangssituation ergibt das bestehende Spannungsfeld zwischen Meinungsfreiheit und Kriminalität. Grundsätzlich ist die Freiheit zur Meinungsäußerung auf EU-Ebene durch die Europäische Menschenrechtskonvention Artikel 10 geschützt. Hier steht geschrieben: «Jede Person hat das Recht auf freie Meinungsäußerung.»27 Trotzdem heißt es weiter: «Die Ausübung dieser Freiheiten ist mit Pflichten und Verantwortung verbunden; sie kann daher Formvorschriften, Bedingungen, Einschränkungen oder Strafdrohungen unterworfen werden (...)»28. Dem folgen einige Gründe, weshalb eine solche Einschränkung notwendig sein könnte, unter anderem die Verhütung von Straftaten und der Schutz von Moral und dem Recht anderer. Dass diese Abgrenzung keine einfache ist, zeigt bereits dieser Gesetzestext. Denn was unter eine Straftat fällt, ist in den Nationen unterschiedlich geregelt und das Verständnis von Moral ist als relativ unbeständig anzunehmen. Während die Beispiele in diesem Artikel bereits sehr pointiert sind, gibt es eine Vielzahl von Aussagen, bei welchen eine eindeutige Abgrenzung zwischen strafrechtlicher Relevanz und Freiheit der Meinungsäußerung so gut wie unmöglich erscheint. Sogar bei den hier erwähnten, relativ zugspitzten Aussprüchen, ist dies nicht immer einfach. Oft sind die Tatbestände nicht eindeutig erfüllt bzw. fehlen Informationen zur konkreten Einschätzung. An dieses Problemfeld, welches sich durch die rapide Vervielfältigung von online Inhalten zugespitzt hat, knüpft nun die Vorlage des Gerichtshofes an, Aussagen durch Betreiber/-innen von sozialen Netzwerken löschen zu lassen. Dieser Ansatz wird, vor dem Hintergrund der bereits angesprochenen methodischen Schwächen automatisierter Verfahren, dazu führen, dass auch zulässige Inhalte auf Social Media gelöscht werden, was die Beschneidung der grundlegenden Menschenrechte durch die Entscheidung eines Systems bedeutet. Die Entscheidung über Recht und Unrecht würde somit zwar von einem Menschen anhand von rechtlichen Parametern festgelegt und ins technische System eingebettet, jedoch vom System als Akteur/-in in Bezug auf Einzelfälle durchgeführt werden.
Das Projekt «ComRad – Kommunikationsmuster der Radikalisierung» wurde vom Jubiläumsfonds der Stadt Wien gefördert.
- 1 Agarwal/Sureka/Goyal, Open Source Social Media Analytics for Intelligence and Security Informatics Applications, Big Data Analytics. In: Lecture Notes in Computer Science, Volume 9498, 2015.
- 2 Vorlage zur Vorabentscheidung – Richtlinie 2000/31/EG, des EuGH vom 3. Oktober 2019 über die Verantwortlichkeit von Diensteanbietern, die als Mittler auftreten.
- 3 Boyd/Crawford, Critical questions for big data. In: Information, Communication & Society, 2012, vol. 15, issue 5, pp.662–679.
- 4 Geiselberger/Moorstedt, Big Data. Das neue Versprechen der Allwissenheit. Suhrkamp Verlag, Frankfurt a.M., 2013.
- 5 Reichert, Big Data. Analysen zum digitalen Wandel von Wissen, Macht und Ökonomie. Transcript Verlag, Bielefeld, 2014.
- 6 Manning/Schütze, Foundations of Statistical Natural Language Processing, MIT Press, 1999.
- 7 Shalunts/Backfried, SentiSAIL: Sentiment Analysis in English, German and Russian. In: Proceedings of the 11th International Conference on Machine Learning and Data Mining in Pattern Recognition – Volume 9166. Springer-Verlag, Hamburg, 2015, S. 87–97.
- 8 Agarwal/Sureka/Goyal, Open Source Social Media Analytics for Intelligence and Security Informatics Applications, Big Data Analytics. In: Lecture Notes in Computer Science, Volume 9498, 2015.
- 9 Gialampoukidis/Kalpakis/Tsikrika/Vrochidis/Kompatsiaris, Key Player Identification in Terrorism-Related Social Media Networks Using Centrality Measures, At: European Intelligence and Security Informatics Conference, Uppsala, Sweden, 2016.
- 10 Fortuna/Nunes, A Survey on Automatic Detection of Hate Speech in Text. ACM Comput. Surv. 51, 4, Article 85, July 2018.
- 11 Correa/Sureka, Solutions to Detect and Analyze Online Radicalization: A Survey. In: PhD Comprehensive Report, Cornell University, Vol V, No. N, January 2013, pp 1–30.
- 12 Cohen/Johansson/Kaati/Clausen Mork, Detecting Linguistic Markers for Radical Violence in Social Media, Terrorism and Political Violence 26(1): 2014, December 2013.
- 13 Scharkow, Zur Verknüpfung manueller und automatischer Inhaltsanalyse durch maschinelles Lernen. In: Medien & Kommunikation, Jg.59., H.4. 2011, S. 545–562.
- 14 Erikson, Identität und Lebenszyklus. Drei Aufsätze. Übersetzung von Käte Hügel, Suhrkamp, Frankfurt a.M, Reihe stw 16, 1973 (Zuerst 1959 «Identity and life cycle»).
- 15 Stryker/Burke, The past, present, and future of an identity theory. In: Social Psychology Quarterly, vol. 63, no. 4, Special Millenium Issue on the State of Sociological Social Psychology, Dec., 2000, pp. 284–297.
- 16 Medina, Identity trouble: Disidentification and the problem of difference. In: Philosophy & Social Criticism, vol. 29 (November), 2003, pp. 655–680.
- 17 Luckmann, On social interaction and the communicative construction of personal identity, knowledge and reality. In: Organization Studies, vol. 29, no. 2, 2008, pp. 277–290.
- 18 Bonfadelli, Medienwirkungsforschung I, Grundlagen und theoretische Perspektiven (Reihe Uni-Papers Bd. 10), UVK Medien, Konstanz, 1999.
- 19 Bryant/Oliver (2009): Media effects. Advances in theory and research, 3rd edition, Routledge, New York, London, 2009.
- 20 Castelli Gattinara/Pirro, The far right as social movement. In: European Societies, 21(4), 2019, S. 447–462.
- 21 Deem, Extreme Speech | The Digital Traces of #whitegenocide and Alt-Right Affective Economies of Transgression». In: International Journal of Communication. 13, 2009, S. 20.
- 22 Köhler/Ebner, Strategies and tactics: communication strategies of jihadists and right-wing extremists. In: Hate Speech and Radicalisation Online, 2019, S. 18.
- 23 Kökgiran/Hentges/Nottbohm, Die Identitäre Bewegung Deutschland (IBD) – Bewegung oder virtuelles Phänomen? In: Forschungsjournal Soziale Bewegung PLUS, 2014.
- 24 Die Aussagen wurden aus datenschutzrechtlichen Gründen leicht adaptiert, in ihrem Sinngehalt jedoch nicht verändert.
- 25 Diese Aussage veranschaulicht gleichzeitig die verschwimmenden Grenzen zwischen Delikten und die kulturelle Prägung unserer Sprache. Interessant ist vor allem die Verwendung sexistischer Begrifflichkeiten als Beleidigung.
- 26 Benjamin, Engineering Inequity. Are robots racist? In: Race after Technology. Abolitionist tools for the New Jim Code. Cambridge, Polity, 2019, pp. 49–76: S. 59.
- 27 Konvention des Rates (Europäische Menschenrechtskonvention) vom 4. November 1950 zum Schutze der Menschenrechte und Grundfreiheiten, Abschnitt 1 – Rechte und Freiheiten, Art. 10.
- 28 Ebenda.