1.
Einführung ^
Zur verantwortungsvollen Digitalisierung gehört der ethisch akzeptable Umgang mit Daten und Algorithmen. Dass dieses Thema mittlerweile in einer breiten Öffentlichkeit angekommen ist, belegen zahlreiche Artikel in den Feuilletons1 ebenso wie die in jüngster Zeit vorgelegten einschlägigen Monographien zum digitalen Humanismus (Nida-Rümelin/Weidenfeld 2018), zu den ethischen Grundlagen der digitalen Wirtschaft (Spiekermann 2019) oder zur Ethik in der digitalen Gesellschaft (Precht 2018, Lobe 2019A) sowie die zunehmende Beschäftigung damit in Wissenschaft (etwa Becker 2019, Rademacher 2019, Schliesky 2019) und Politik (Datenethikkommission 2019).
Ausgehend von der Auseinandersetzung mit der Definition von Datenethik in Abgrenzung zu anderen ethischen Handlungsfeldern (digitale Ethik im Allgemeinen, Ethik der Algorithmen und des Einsatzes künstlicher Intelligenz) stellen wir Problemstellungen vor, mit denen datenethische Konzeptionen in der digitalen Gesellschaft konfrontiert sind, sowie bekannte datenethische Skandale, etwa die Cambridge Analytica-Analysen im Umfeld von Brexit und US-Präsidentenwahl 2016. Auf dieser Basis erörtern wir schließlich aktuelle Lösungsvorschläge wie beispielsweise das Ende Oktober 2019 vorgelegte Gutachten der Datenethikkommission der deutschen Bundesregierung.
2.
Problemfelder ^
Datenethische Probleme haben im Zuge der zunehmenden Digitalisierung und der wiedererlangten Prominenz von Verfahren und Anwendungen der künstlichen Intelligenz einschließlich neuerer Modelle neuronaler Netze in den letzten Jahren viel Beachtung gefunden. Nachfolgend zeigen wir, ohne dabei Vollständigkeit anzustreben, einige typische Diskussionsfelder auf. Wir stützen uns hierzu unter anderem auf eine Reihe kürzlich erschienener (populärwissenschaftlicher) Monographien zu diesem Thema, um darzulegen, zu welchen Bereichen eine (breitere) gesellschaftliche Diskussion stattfindet.
2.1.
Soziale Netzwerke und Suchmaschinen ^
Ein häufig genanntes Problemfeld stellt erwartungsgemäß der Umgang mit Daten aus sozialen Netzwerken und Suchmaschinen dar. Hier steht vor allem die mangelnde Transparenz im Fokus, wenn etwa Precht 2018, S. 156 schreibt: «Von Mitbestimmung bei dem, was die Betreiber der sozialen Netzwerke mit den Daten der Menschen machen, kann keine Rede sein. Ihr Geschäftsmodell ist nicht Transparenz, sondern Dunkelheit». Deshalb ist eine in diesem Zusammenhang gestellte Forderung, dass die großen Internetfirmen ihre Algorithmen offenlegen müssen (also etwa die Ordnungsverfahren bei Google oder Strategien der Datenauswertung bei Facebook, Precht 2018, S. 237).
Neben Transparenz und der Sicherung der informationellen Selbstbestimmung wird die Bereitstellung einer digitalen Grundversorgung (Suchmaschinen, E-Mail, Sprachassistenten, soziale Netzwerke ohne kommerzielle Interessen) gefordert (Precht 2018, S. 259 f.). Auch sollen die großen Plattformen eine einfache, gut bedienbare und nachvollziehbare Steuerung der Einstellungen zur Privatsphäre erlauben, um gleichzeitig den Austausch sowie das Löschen bzw. das Entziehen von Daten zu ermöglichen (Spiekermann 2019, S. 182).
Einen anderen interessanten Aspekt thematisiert darüber hinaus Lobe 2019B, wonach Suchmaschinen eine Art «Seismograf für soziale Stimmungen» seien, «der die Zuckungen und Regungen der digitalen Gesellschaft erfasst», woran sich die Frage anschließe, ob etwa Google Auskunft geben müsse, wenn es Hinweise auf einen Staatsstreich hätte.
2.2.
Internet of things, smart city und smart home ^
Ein weiteres vielfach diskutiertes Gebiet ist der Umgang mit Daten, die im Zusammenhang mit dem internet of things entstehen. Seit einiger Zeit beflügelt auch die Idee der smart city die Phantasie, in der beispielsweise Sensoren helfen, die Verkehrsflüsse zu optimieren und damit den Energieverbrauch ebenso wie den CO2-Wert zu verringern, in der aber gleichzeitig der Einzelne im öffentlichen Raum jederzeit überwacht werden kann. In diesem Zusammenhang ergeben sich zum einen Probleme, wie die vielen anfallenden Daten geschützt werden können, zum anderen scheint fraglich, wie weit ein solches Konzept gehen sollte und wer darüber entscheidet. Angemahnt wird hier zum einen größtmögliche Transparenz darüber, wozu diese Daten gespeichert und verarbeitet werden, und zum anderen die Einbeziehung der Bürger, wie die technische Infrastruktur aussehen soll (Gadeib 2019, S. 157 f.; Precht 2018, S. 213 ff.; Lobe 2019A, S. 23 ff. zum Beispiel des CityScore der Stadt Boston).
Ähnliche Überlegungen wie zur smart city finden sich zum Thema smart home, wo neben den auf der Hand liegenden Vorteilen ebenfalls die Überwachungskomponente im Blick ist: «Wir bauen uns unser Datengefängnis – mit Mikrofonen, Kameras und Sensoren, die uns wie im Strafvollzug 24/7 überwachen» (Lobe 2019A, 28; siehe auch Spiekermann 2019, S. 245).
Ein anderes Problem sieht Precht 2018, S. 238 darin, dass z.B. dann, wenn sich ein Bürostuhl anhand der Körperdaten an den Benutzer anpasst und sich gesundheitsfördernd verstellt, der Gegenstand der Einschätzung des Programmierers von einer gesundheitsfördernden Stellung folgt und damit der Programmierer für den Menschen die Entscheidung trifft.
2.3.
Prädiktive Systeme ^
Der Bereich der prädiktiven Behörden-, Polizei- oder Justizarbeit wird ebenfalls häufig unter ethischen Gesichtspunkten erörtert, zum Beispiel COMPAS (Correctional Offender Management Profiling for Alternative Sanctions), ein algorithmisch generierter «Risikoscore», der in den USA Gerichten bei der Beurteilung der Rückfallgeschwindigkeit von Straftätern helfen soll (Lobe 2019A, S. 186 f. bzw. S. 209 f. zu einem Algorithmus, den die Polizeibehörden in Chicago zur Berechnung des Gefährdungspotentials von Personen aufgrund eines statistischen Risikomodells nutzen oder einem von der Polizei in Los Angeles verwendeten Systems zur Berechnung von Risikostraftätern2). Andere Felder, in denen solche Systeme eingesetzt werden (können), sind die Versicherungsbranche zur Betrugserkennung oder die Arbeitsvermittlung, etwa in Österreich ein Algorithmus des Arbeitsmarktservice Österreich (AMS) (Köver 2019).
2.4.
Automatisierte Rechtsdurchsetzung ^
Ein weiterer zunehmend diskutierter Bereich sind automatisierte Rechtsdurchsetzungsmechanismen, wie das automatische Blockieren von Handy-Kameras bei urheberrechtlich geschützten Veranstaltungen (Lobe 2019A, S. 51). Der von Lessig geprägte Begriff des «Code is law» gilt hier als Leitgedanke (so Lobe 2019A, Kap. 3: Wer braucht noch Gesetze, wenn es Programmcodes gibt?). Weitere Beispiele sind das Aussperren aus der Wohnung bei nicht erfolgter Mietzahlung oder das Verhindern eines Grenzübertritts, der vertraglich für ein Mietfahrzeug nicht vereinbart war.3
Im Gegensatz zur Forderung nach größtmöglicher Transparenz im Umgang mit Daten, die im Kontext von social media oder des internet of things anfallen bzw. für prädiktive Systeme genutzt werden, erscheint hier eher das Gegenteil wünschenswert: «Intransparenz stellt in unserer Gesellschaft einen großen Wert dar» (Precht 2018, S. 203). «Eine völlig transparente Gesellschaft wäre nicht entfernt wünschenswert. Das gleiche gilt auch für eine Gesellschaft, die normabweichendes Verhalten gar nicht mehr zulässt» ... «Jeder moralische Grundsatz wird zu einem Gräuel, wenn er uneingeschränkt zur starren Regel erhoben wird» (Precht 2018, S. 204 f., 207; vgl. auch Spiekermann 2019, S. 249 ff.).
2.5.
Autonome Systeme ^
Autonome Systeme werfen schon seit Jahren Fragen auf, die eine thematische Verwandtschaft zu dem soeben genannten Bereich aufweisen. Hier wird v.a. die Möglichkeit eines ethisch motivierten Programmierens diskutiert (Nida-Rümelin/Weidenfeld 2018, S. 92 ff.). Nach Precht 2018, S. 216 sollte dabei jeder Versuch, ethische Maßstäbe maschinell zu implementieren, von vornherein unterbleiben, da es bis auf weiteres nicht gelingen kann, menschliches Denken über ethische Maßstäbe maschinell nachzubilden. Insofern sei der Diskurs zu der Frage, in welchen Bereichen wir Maschinen überhaupt Entscheidungen zugestehen wollen bzw. in welchen wir das nicht zulassen wollen, wichtiger als die Forderung einer Programmierung unter Berücksichtigung von Grundwerten und Normen (Precht 2018, S. 238 f.).
2.6.
Beispiele datenethisch relevanter Skandale ^
Die vielfältige und zunehmende Beschäftigung mit datenethischen Fragestellungen wurde sicher von einer Reihe von Skandalen in diesem Bereich beeinflusst. Ein bekanntes Beispiel stellt die Verwendung von Daten von Millionen von Facebook-Nutzern im Umfeld des Brexit und der US-Präsidentenwahl 2016 dar (Fuller2019). Es steht stellvertretend für mittlerweile zahllose Fälle unautorisierten Datenzugriffs, illegaler Datenakquise und des unbeabsichtigten Datenverlusts (Vijayan 2018). Gerade dieser Skandal steht für «Glanz und Elend» von Big Data und Data Science. So bringt einer der Gründer von Cambridge Analytica die Leistungsfähigkeit von Analyseverfahren, die vergleichsweise simple Datenstrukturen – Facebook-Likes – auswerten, auf den Punkt:
«We show that easily accessible digital records of behavior, Facebook Likes, can be used to automatically and accurately predict a range of highly sensitive personal attributes including: sexual orientation, ethnicity, religious and political views, personality traits, intelligence, happiness, use of addictive substances, parental separation, age, and gender. [...] This study demonstrates the degree to which relatively basic digital records of human behavior can be used to automatically and accurately estimate a wide range of personal attributes that people would typically assume to be private.»4
Die missbräuchliche Verwendung von Facebook-Daten und die Verwendung im bekannten politischen Kontext begründen dann den Skandal, der deutlich macht, wie dringend datenethische Grundlagen und eine darauf aufbauende Regulierung durch Rechtsetzung erforderlich sind. Plattformen wie https://www.darkreading.com dokumentieren und bewerten den oben genannten und viele andere Datenskandale.
3.
Was ist Datenethik? ^
Nachdem wir eine Reihe der diskutierten Problemfelder angesprochen haben, ist danach zu fragen, wie man den Begriff der Datenethik definieren kann. Datenethik als eine Bereichsethik gehört zum Arbeitsfeld der angewandten Ethik; ihre Aufgabe ist insofern, bereichs- oder anwendungsspezifisch zwischen allgemeinen ethischen Prinzipien und konkreten Anwendungsfällen zu vermitteln. Verwandte Bereichsethiken, die bereits seit längerem etabliert sind, sind Kommunikations-, Medien- und Informationsethik (vgl. Debatin/Funiok 2003, Kuhlen 2004).
3.1.
Definition ^
In der deutschsprachigen Wikipedia findet sich folgende Definition:
«Die Digitale Ethik oder Datenethik, teils auch Algorithmenethik, beschäftigt sich als Teilgebiet der Ethik und der praktischen Philosophie mit den sittlichen Normsetzungen, die für Digitalisierung und Big Data gelten sollen. Vielfach diskutierte Themen sind Künstliche Intelligenz und Algorithmen, Überwachung und Privatsphäre, das Verhältnis zwischen Mensch und Maschine und die Rolle sozialer Medien in einer deliberativen Demokratie.»5
3.2.
Abgrenzung ^
Floridi und Taddeo arbeiten heraus, warum der Bezugspunkt von Bereichsethiken des Digitalen bei den Daten und nicht etwa bei den Maschinen, Robotern oder sonstigen Geräten ansetzen sollte, und definieren Datenethik wie folgt:
«data ethics can be defined as the branch of ethics that studies and evaluates moral problems related to data (including generation, recording, curation, processing, dissemination, sharing and use), algorithms (including artificial intelligence, artificial agents, machine learning and robots) and corresponding practices (including responsible innovation, programming, hacking and professional codes), in order to formulate and support morally good solutions (e.g. right conducts or right values). This means that the ethical challenges posed by data science can be mapped within the conceptual space delineated by three axes of research: the ethics of data, the ethics of algorithms and the ethics of practices» (Floridi/Taddeo 2016, S. 3).
Damit wird Datenethik als Dachkonzept eingesetzt, das eine wichtige Binnendifferenzierung nach der Perspektive auf Daten, Algorithmen und Praktiken vorsieht. Während Datenethik auch Fragen des Datenschutzes oder der Datenerfassung an sich umfasst, behandelt die Ethik der Algorithmen z.B. Fragen der Nachvollziehbarkeit im Bereich der Künstlichen Intelligenz (eXplainable AI als Ziel).
3.3.
Beispiele für Datenethik in Praxis, Politik und Recht ^
Die amerikanische Fachgesellschaft Institute of Electrical and Electronics Engineers (IEEE) hat in einem groß angelegten Projekt, an dem über drei Jahre hinweg 1.000 Experten der Frage nachgegangen sind, wie technische Systeme menschengerechter gebaut werden sollten, eine Liste von Wertprinzipien vorgelegt, an denen sich über 400.000 Verbandsmitglieder künftig bei der Entwicklung von Technologie orientieren sollen (vgl. Spiekermann 2019, S. 170). Im Vordergrund steht, dass sich Entwickler und deren Auftraggeber an den Menschenrechten wie etwa in der UN-Menschenrechtskonvention niedergelegt orientieren und die Technik das Wellbeing der Menschen verbessern soll, wofür Wertekataloge etwa der OECD zum Tragen kommen. Auch für andere Organisationen existieren solche Listen, wie beispielsweise der Association for Computing Machinery (ACM) (Spiekermann 2019, S. 170 ff.). Spiekermann 2019, S. 173 arbeitet hier als Problem heraus, dass solche ethischen Listen nicht vollständig sein können und es zudem unklar sei, welche Liste Gültigkeit habe. Ein interessantes Beispiel dafür sei etwa die unterschiedliche Reaktion eines russisch sprechenden Sprachassistenten und eines englischsprachigen Assistenten auf die Aussage des Nutzers «Ich bin traurig». Die englische Version antwortet mit «Ich wünschte, ich hätte Arme, um dich zu knuddeln», die russische mit «Keiner hat gesagt, dass das Leben eine Spaßveranstaltung ist» (Spiekermann 2019, S. 176). Nach Spiekermann gehe es hier erkennbar um den Wert des Trostes, der in keinem der Wertekataloge existiere, weil er bislang nicht in den Blick geraten sei. Grundsätzlich sei deshalb der Schluss zu ziehen, dass nicht vorhersehbar sei, was ethisch reguliert werden müsse (Spiekermann 2019, S. 176).
Auf der politischen Ebene gibt es ebenfalls Bemühungen im Bereich der Datenethik. So hat das EU-Parlament im Jahr 2017 der EU-Kommission empfohlen, sich mit der Regulierung von autonomen IT-Systemen zu beschäftigen, wobei zu den zu berücksichtigenden Werten Sicherheit, Freiheit, Privatheit, Würde, Selbstbestimmung, Gleichheit, Gerechtigkeit, Nichtdiskriminierung, Transparenz, Autonomie und Verantwortung gehören (nach Spiekermann 2019, S. 172, vgl. auch unten Kap. 4).
Zu den vielfältigen Regelungen den Datenschutz betreffend sind die Guidelines on the Protection of Privacy and Transborder Flows of Personal Data der OECD zu nennen, die erstmals 1980 vorgelegt wurden (OECD 1980), Art. 7 und 8 der EU-Charta und auf europäischer Ebene die Datenschutz-Grundverordnung (DSGVO, 2016/2018). Daneben ergeben sich Anforderungen aus dem Grundgesetz und der Rechtsprechung des Bundesverfassungsgerichts. Hinsichtlich des Datenschutzes lassen sich heute drei Fallgruppen unterscheiden:
a) Big Data im Bereich der Anwendung bei Maschinen, in der industriellen Produktion etc.: Dies dürfte in der Regel unkritisch sein, weil Menschen nicht betroffen sind.
b) Personenbezogene Daten, wie sie etwa in den sozialen Medien oder in der Beobachtung des öffentlichen Raums gesammelt werden: Dies ist ein äußerst sensibler Bereich, der gut geschützt werden muss, für dessen Schutz sich aber die bisherige Gesetzgebung auch einsetzt.
c) Personenbezogene Daten, die anonymisiert und aggregiert genutzt werden: Hier handelt es sich um eine Mischform, die aber besonderer Beobachtung bedarf, da oftmals das Individuum rekonstruierbar ist oder die Datenaggregation dazu führt, Vorurteile und einseitige Voreinstellungen zu manifestieren.
4.
Lösungsansätze für ein unübersichtliches Feld ^
Wir befinden uns derzeit in einer Übergangsphase, in der nicht klar ist, wo die Grenzen der Leistungsfähigkeit datengetriebener und intelligenter Verfahren liegen (bzw. wo sie nicht liegen) und sich auch noch kein Konsens hinsichtlich der erforderlichen Maßnahmen herausgebildet hat. Immerhin zeugt die Intensität, mit der der Diskurs auf ganz unterschiedlichen Ebenen (Feuilleton/veröffentlichte Meinung – Wissenschaft – Fachgesellschaften – Politik) geführt wird, von wachsendem Problembewusstsein. Man kann davon ausgehen, dass in den kommenden Jahren rechtliche Regelungen (Regulierung) für klarere Rahmenbedingungen sorgen werden.
Eine Systematisierung könnte dabei nach folgenden Kriterien erfolgen:
- Bezugsbereich (Daten – Algorithmen – Systeme, einzelne Anwendungsfelder, z.B. autonom fahrende Systeme)
- Reichweite und Geltung (International, EU, nationale Regelungen)
- Akteure (Internationale Organisationen, überstaatliche Verbünde, Staaten, Parteien, Zivilgesellschaft, Wissenschaft, Fachgesellschaften, Industrieverbände, Unternehmen)
- Konkretisierungsgrad und Entwicklungsstadium (von der Idee zum Gesetz)
Nachfolgend stellen wir zwei prominente Beispiele datenethischer Konzeptionen auf europäischer bzw. deutscher Ebene vor.
4.1.
Hochrangige Expertengruppe für Künstliche Intelligenz (HEG-KI) der EU ^
Die europäische Kommission hat 2018 eine Arbeitsgruppe mit dem Auftrag eingesetzt, ethische, politische und ökonomische Rahmenbedingungen für eine europäische KI-Strategie zu erarbeiten. Im April 2019 hat diese Arbeitsgruppe ein Dokument mit «Ethik-Leitlinien für eine vertrauenswürdige KI» vorgelegt (HEG-KI 2019). Darin wird als allgemeiner Rahmen gesetzt, dass der Einsatz von KI rechtmäßig, robust und ethisch erfolgen muss. Für die Ausarbeitung konkreter ethischer Prinzipien werden, hergeleitet aus in Europa gültigen Grundrechten, vier ethische Grundsätze vorgeschlagen (HEG-KI 2019, S. 14, Rz. 48), nämlich Achtung der menschlichen Autonomie, Schadensverhütung, Fairness und Erklärbarkeit. Auf dieser Basis definiert die HEG-KI 2019 (S. 17 f., Rz. 58) sieben zentrale Anforderungen an KI-Systeme: (1) Vorrang menschlichen Handelns und menschlicher Aufsicht, (2) technische Robustheit und Sicherheit, (3) Schutz der Privatsphäre und Datenqualitätsmanagement, (4) Transparenz, (5) Vielfalt, Nichtdiskriminierung und Fairness, (6) gesellschaftliches und ökologisches Wohlergehen sowie (7) Rechenschaftspflicht.
Neben allgemeinen Prinzipien, ethischen Grundsätzen und Anforderungen sieht das Konzept der HEG-KI explizit auch kontinuierliche Bewertungsverfahren für den gesamten Lebenszyklus von KI-Systemen vor. Dabei geht die HEG-KI pragmatisch und anwendungsorientiert vor und entwickelt in ihren Leitlinien eine nicht-abschließende Liste von Bewertungskriterien für vertrauenswürdige KI-Systeme, die auf die sieben Anforderungen Bezug nehmen und in Form einer Checkliste formuliert sind. Zur Anforderung Transparenz werden mit Blick auf die Erklärbarkeit von KI-Systemen und ihren Entscheidungen u.a. folgende Fragen aufgeworfen: «Haben Sie beurteilt, inwieweit die Entscheidungen und damit das Ergebnis des KI-Systems nachvollziehbar sind? Haben Sie sichergestellt, dass eine Erklärung der Gründe, warum ein System eine bestimmte Wahl getroffen hat, die zu einem bestimmten Ergebnis führt, für alle Benutzer, die eine Erklärung wünschen, verständlich gemacht werden kann? Haben Sie beurteilt, inwieweit die Entscheidung des Systems die Entscheidungsprozesse der Organisation beeinflusst?» (HEG-KI 2019, S. 37, nach Rz. 120). Ergänzend diskutiert das Gutachten Chancen und Risiken des KI-Einsatzes am Beispiel konkreter Beispiele (wie etwa die Nutzung von KI für Gesundheit und Wohlergehen bzw. tödlicher autonomer Waffensysteme).
4.2.
Gutachten der Datenethikkommission der deutschen Bundesregierung ^
Bereits die 2018 publizierte «Strategie Künstliche Intelligenz der Bundesregierung» spricht sich für «eine verantwortungsvolle und gemeinwohlorientierte Entwicklung und Nutzung von KI» (Bundesregierung 2018, S. 7) aus und nimmt Bezug auf die Arbeit der Datenethikkommission der deutschen Bundesregierung, deren Gutachten dazu im Herbst 2019 publiziert wurde. Dabei werden auf der Basis der folgenden ethischen Leitsätze Handlungsempfehlungen entwickelt (Datenethikkommission 2019, S. 13):
- Menschenzentrierte und werteorientierte Gestaltung von Technologie
- Förderung digitaler Kompetenzen und kritischer Reflexion in der digitalen Welt
- Stärkung des Schutzes von persönlicher Freiheit, Selbstbestimmung und Integrität
- Förderung verantwortungsvoller und gemeinwohlverträglicher Datennutzungen
- Risikoadaptierte Regulierung und wirksame Kontrolle algorithmischer Systeme
- Wahrung und Förderung von Demokratie und gesellschaftlichem Zusammenhalt
- Ausrichtung digitaler Strategien an Zielen der Nachhaltigkeit
- Stärkung der digitalen Souveränität Deutschlands und Europas
Insgesamt finden sich in dem über 230 Seiten umfassenden Gutachten der Datenethikkommission 75 konkrete Handlungsempfehlungen, wobei sie Anforderungen an die Nutzung personenbezogener Daten aufstellt und Maßnahmen gegen ethisch nicht vertretbare Datennutzung wie die Totalüberwachung, eine die Integrität der Persönlichkeit verletzende Profilbildung oder eine dem Demokratieprinzip zuwiderlaufende Beeinflussung politischer Wahlen empfiehlt. Im Hinblick auf Algorithmen sollen die Anforderungen abhängig von deren Schädigungspotential sein. Die Kommission teilt dabei die Gefährlichkeit in fünf Risikoklassen ein, von Algorithmen ohne Schädigungspotential bis hin zu Anwendungen mit unvertretbarem Schädigungspotential. Diese bilden die Spitze einer «Kritikalitätspyramide»: Je nach Risikoklasse werden unterschiedliche starke Eingriffe und Regulierungsmaßnahmen bis hin zum vollständigen Verbot vorgeschlagen (Datenethikkommission 2019, S. 177). Beispielsweise sieht die Vorsitzende der Datenethikkommission, die Medizinethikerin Christiane Woopen, eine auf Likes basierende Nutzeranalyse von Facebook bereits im verbotswürdigen Sektor (Krempl 2019, vgl. dazu auch oben Kap. 2.6.).
5.
Fazit und Ausblick ^
Schnell haben verschiedene politische Akteure auf unterschiedlichen Ebenen ethische Grundlagen für KI, Digitalisierung und Big Data entwickelt, auch der politische Streit über die konkrete Umsetzung (Regulierung, Haftungsfragen, Verbot) hat bereits begonnen, wie die Diskussion um einen u.a. von Verbraucherschützern geforderten Algorithmen-TÜV oder die Stellungnahmen der Vertreter von IT-Verbänden wie Bitkom oder eco (Sehl 2019) zeigen. Sowohl die in Kap. 4 angesprochene Kartierung datenethischer Konzeptionen als auch ein Detailvergleich der Herangehensweisen an Daten- und Algorithmen-Ethik in der EU und in Deutschland (oder anderen EU-Staaten) sind Beispiele für mögliche weiterführende Untersuchungen zu diesem Thema.
6.
Literatur ^
Andersen, Nicolai, Brauchen digitale Innovationen eine neue Ethik? Deloitte Deutschland, Hamburg, 2019, https://www2.deloitte.com/de/de/pages/innovation/contents/Brauchen_digitale_Innovationen_eine_neue_Ethik.html.
Becker, Maximilian, Von der Freiheit, rechtswidrig handeln zu können – «Upload-Filter» und technische Rechtsdurchsetzung, ZUM 2019, 636–648.
Bundesregierung, Strategie Künstliche Intelligenz der Bundesregierung. Berlin: Bundesregierung, 2018.
Datenethikkommission der Bundesregierung (Hrsg.), Gutachten der Datenethikkommission. Berlin: Bundesministerium des Innern, für Bau und Heimat und Bundesministerium der Justiz und für Verbraucherschutz, Oktober 2019, https://www.bmjv.de/SharedDocs/Downloads/DE/Themen/Fokusthemen/Gutachten_DEK_DE.pdf.
Debatin, Bernhard/Funiok, Rüdiger (Hrsg.), Kommunikations- und Medienethik. UVK, Konstanz, 2003.
Floridi, Luciano/Taddeo, Mariarosaria, What is data ethics? In: Philosophical Transactions of the Royal Society A: Mathematical, Physical and Engineering Sciences, 2016, 374 (2083), http://doi.org/10.1098/rsta.2016.0360.
Gadeib, Andrea, Die Zukunft ist menschlich. Manifest für einen intelligenten Umgang mit dem digitalen Wandel in unserer Gesellschaft, GABAL, Offenbach, 2019.
Fuller, Michael, Big Data and the Facebook Scandal: Issues and Responses, Theology, 2019, 122, S. 14–21.
Hasselbach, Gry, Making sense of data ethics. The powers behind the data ethics debate in European policymaking. Internet Policy Review, 2019, 8(2). DOI: 10.14763/2019.2.1401.
HEG-KI, Ethik-Leitlinien für eine vertrauenswürdige KI. Brüssel: Europäische Kommission, 2019, https://ec.europa.eu/newsroom/dae/document.cfm?doc_id=60425.
Kitchin, Rob, (August 18, 2014), The Data Revolution: Big Data, Open Data, Data Infrastructures and Their Consequences. SAGE, Los Angeles, 2014. p. 27. ISBN 9781473908253.
Köver, Chris, Streit um den AMS-Algorithmus geht in die nächste Runde, https://netzpolitik.org/2019/streit-um-den-ams-algorithmus-geht-in-die-naechste-runde/#spendenleiste.
Kosinski, Michal/Stillwell, David/Graepel, Thore, Private traits and attributes are predictable from digital records of human behavior, Proceedings of the National Academy of Sciences, 2013, 110, S. 5802-05.
Krempl, Stefan, Datenethik-Kommission: Verbot von De-Anonymisierung und Profilbildung, Heise Online, 23. Oktober 2019, https://www.heise.de/newsticker/meldung/Datenethik-Kommission-Verbot-von-De-Anonymisierung-und-Profilbildung-4566788.html.
Kuhlen, Rainer, Informationsethik, UVK, Konstanz, 2004 [= UTB Bd. 2454].
Lobe, Adrian, Speichern und Strafen. Die Gesellschaft im Datengefängnis, C.H. Beck, München, 2019 (Lobe 2019A).
Lobe, Adrian, Das digitale Arkanum. Die Datensammelwut der Tech-Konzerne führt zu einem aufklärerischen Paradoxon: Staatsgeheimnisse werden zu Betriebsgeheimnissen – und umgekehrt, Süddeutsche Zeitung vom 21. November 2019 (Lobe 2019B).
Metcalf, Jacob/Crawford, Kate (2016). Where are human subjects in big data research? The emerging ethics divide, Big Data & Society, 2016, 3, 2053951716650211.
Nida-Rümelin, Julian/Weidenfeld, Nathalie, Digitaler Humanismus. Eine Ethik für das Zeitalter der Künstlichen Intelligenz, Piper, München, 3. Auflage 2018.
OECD, Guidelines on the Protection of Privacy and Transborder Flow of Personal Data, Organisation for Economic Co-operation and Development, Paris 1980 (revised 2013), https://www.oecd.org/sti/ieconomy/oecdguidelinesontheprotectionofprivacyandtransborderflowsofpersonaldata.htm.
Precht, Richard David, Jäger, Hirten, Kritiker. Eine Utopie für die digitale Gesellschaft, Goldmann, München, 8. Auflage 2018.
Rademacher, Timo, Wenn neue Technologien altes Recht durchsetzen: Dürfen wir es unmöglich machen, rechtswidrig zu handeln? JZ 2019, 702–710.
Schliesky, Utz, Digitale Ethik und Recht, NJW 2019, 3692–3697.
Sehl, Markus, Deutscher Gold-Standard für Datenregulierung in Europa? Legal Tribune Online, 24. Oktober 2019, https://www.lto.de/recht/hintergruende/h/daten-ethik-kommission-bmjv-bmi-regulierung-digitalisierung-eu/.
Spiekermann, Sarah, Digitale Ethik. Ein Wertesystem für das 21. Jahrhundert, Droemer, München, 2019.
Vijayan, Jai, 2018 on Track to be One of the Worst Ever for Data Breaches. DarkReading Blog, 12. November 2018, https://www.darkreading.com/vulnerabilities---threats/2018-on-track-to-be-one-of-the-worst-ever-for-data-breaches/d/d-id/1333252, Informa UK Limited, London.
- 1 Etwa mehrere 2019 in der Süddeutschen Zeitung (SZ) im Rahmen der Reihe Der Geist in der Maschine. Was bedeutet Künstliche Intelligenz? erschienene Essays, z.B. Meike Zehlike/Gert G. Wagner, Unfair, SZ v. 6. Mai 2019 oder Peter Galison, Ein Traum von Objektivität, SZ v. 7. August 2019; siehe auch Adrian Lobe, Vorfahrt für den Code, SZ v. 2. Juli 2019, Alexander Filipovic, Und zum Schluss die Gehirne, SZ v. 20. August 2019, Ann-Kathrin Nezik, Wenn Maschinen kalt entscheiden, Die Zeit v. 14. Oktober 2019.
- 2 Ein anderes System ist PRECOBS (Pre Crime Observation System), das u.a. in Zürich zur Vorhersage bestimmter Deliktstypen Verwendung findet, vgl. https://de.wikipedia.org/wiki/PRECOBS.
- 3 Dieser ganze Bereich betrifft zum einen die Diskussion der sich selbst vollziehenden Verträge, oft mit dem Begriff der smart contracts bezeichnet, und die Programmierung zur Unterbindung von Gesetzesübertretungen, vgl. dazu auch Becker 2019, Rademacher 2019.
- 4 Kosinski et al. 2013, S. 5802.
- 5 Vgl. https://de.wikipedia.org/wiki/Digitale_Ethik.