Jusletter IT

Datenschutzrechtliche Implikationen Autonomer Systeme

  • Author: Bettina Höchtl
  • Category: Articles
  • Region: Austria
  • Field of law: Data Protection, Artificial Intelligence & Law
  • Collection: Conference proceedings IRIS 2019
  • Citation: Bettina Höchtl, Datenschutzrechtliche Implikationen Autonomer Systeme, in: Jusletter IT 21. February 2019
Eigenständige Systeme stehen im Fokus der öffentlichen und wissenschaftlichen Debatte. Dieser Beitrag zeigt exemplarisch, wie sich Diskussionen mit anderem Schwerpunkt im Datenschutzrecht bei der Rolle des Verantwortlichen und Betroffenenrechten widerspiegeln. Potentiell durch Bots erhobene Daten werden in eine für das autonome Fahren konzipierte Kategorisierung eingeordnet. Rechtssicherer Einsatz autonomer Systeme verlangt die Beantwortung einer Reihe aufgezeigter Fragen. Es besteht Klärungsbedarf in der Umsetzung von Löschung und Datenportabilität und vor allem dann, wenn autonome Systeme, abhängig von deren Rechtspersönlichkeit, zukünftig als Verantwortliche agieren.

Inhaltsverzeichnis

  • 1. Einleitung
  • 2. Autonome Systeme und Softwareagenten
  • 3. Datenschutzrechtliche Implikationen
  • 3.1. Datenarten
  • 3.2. Der Verantwortliche
  • 3.3. Betroffenenrechte
  • 4. Ausblick

1.

Einleitung ^

[1]

Durch das künstlicher Intelligenz (KI) zugeschriebene Potential1 widmen sich internationale und nationale Akteure der Eignung des geltenden Rechtsrahmens für die Einordnung von KI.2 Entscheidende Entwicklungsstufen waren der in den 1930er Jahren von Zuse gebaute erste automatische Computer für die Praxis3 und Turings Auseinandersetzung mit dem Phänomen «denkender Maschinen». 4 Heute wird KI von vielen genutzt. Nach wie vor mangelt es aber an Einigkeit über eine Definition des bereits 1955 so bezeichneten Forschungsgegenstandes.5 KI wird als «the programming of computers to do tasks that would normally require human intelligence»6 beschrieben, als Untersuchung von Agenten, die die Umgebung wahrnehmen und Aktionen ausführen7, als «Berechnungsverfahren, die es ermöglichen wahrzunehmen, zu schlussfolgern und zu handeln»8 oder als «a systems ability to interpret external data correctly, to learn from such data, and to use those learnings to achieve specific goals and tasks through flexible adaptation»9 definiert.

[2]

Nach ihren Funktionen im Vergleich zu den Möglichkeiten eines Menschen können mit absteigender Leistungsfähigkeit künstliche Superintelligenz, die in jedem Bereich Leistung über menschlichem Niveau erbringen könne, von starker KI10, die Menschen in einigen Bereichen gleichkomme oder diese übertreffe, und schwacher KI, die Menschen nur in bestimmten Gebieten übertreffe oder Fähigkeiten unter menschlichem Niveau habe, unterschieden werden. KI habe die Fähigkeiten zu lernen, wahrzunehmen und Objekte zu kontrollieren, künstlerische Kreativität könne KI jedoch im Gegensatz zu Fähigkeiten kognitiver, emotionaler und sozialer Intelligenz nicht imitieren.11 KI-Technologien werden auch in natürliche Sprache (z.B. Chatbots), visuelles Vermögen des Computers und Biometrie (z.B. Bilderkennung) sowie technische Fundamente (z.B. maschinelles Lernen) eingeteilt.12 Beim maschinellen Lernen können einprogrammierte Regeln durch die Ergänzung um neue Regeln oder das Entfernen ursprünglich vorhanden gewesener Regeln verändert werden.13 Andrade vergleicht KI mit einem Schüler, der den Stoff im Unterricht aufnimmt und sieht bei maschinellem Lernen durch Zugriff auf externe Quellen wie das Internet oder Sensoren Parallelen zu einem Schüler im Selbststudium. Bei tiefergehendem Lernen lerne die Maschine zusätzlich aus ihren eigenen Fehlern.14 Unabhängig von der Grundsatzfrage, ob Systeme überhaupt intelligent sein können oder nicht15, konnten Computerprogramme Menschen in gewissen Bereichen übertreffen.16

[3]

KI ist die Basis für Softwareagenten. Diese wurden als «Algorithmen, also als mathematisch formalisierte Informationsflüsse […], denen in Wirtschaft und Gesellschaft unter bestimmten Bedingungen soziale Identität und Handlungsfähigkeit zugeschrieben wird» 17 und auch als «a program that acts independently on behalf of its user, in furtherance of its interests» beschrieben. 18 Chatbots können in beide Definitionen eingeordnet werden. Diese sind Computerprogramme, die – in der Regel von Unternehmen oder der öffentlichen Verwaltung eingesetzt19 – eine öffentliche oder private Unterhaltung mit einem Menschen simulieren.20

2.

Autonome Systeme und Softwareagenten ^

[4]

Aus ethischer Perspektive wird die Zuweisung von Autonomie zu einem System an sich kritisiert.21 Die juristische Diskussion grenzt das autonome System zu anderen Begriffen oft nicht genau ab.22 Die Vorstellung der Lösung von Aufgaben weitgehend ohne menschliche Unterstützung liegt jedoch vielen Erklärungsansätzen zu Grunde.23 Dem folgt auch das EP, das sich für die Festlegung von Definitionen aussprach und Autonomie als Fähigkeit beschrieb, «Entscheidungen zu treffen und diese in der äußeren Welt unabhängig von externer Steuerung oder Einflussnahme umzusetzen.»24 Als Kriterien zur Abgrenzung autonomer Systeme von Systemen mit geringerem Automatisierungsgrad können Selbstlernen und Selbstregulation dienen, wobei Selbstregulation die Adaption des Gelernten in neuen Situationen umfasst.25 Der zu autonomem Verhalten befähigte elektronische Agent reagiert auf neue Erkenntnisse und ändert die Bearbeitungsreihenfolge.26 Kennzeichnend für autonome Systeme sei die Bündelung mehrerer Technologien zum Lernen, zur Wahrnehmung und zur Ausführung von Aktionen durch die Bewegung von Objekten oder die Erteilung von Software-Befehlen. 27 Autonom im rechtlichen Sinn würden Softwareagenten durch die Verfolgung eigener Ziele und deren Abänderung sowie durch das Treffen nicht vorhersehbarer Entscheidungen.28 Wesentliches Unterscheidungsmerkmal von anderer Software sei daher ihre Eigenständigkeit oder Nicht-Determiniertheit.29 Ein nach reinen Wenn-Dann-Regeln agierender Algorithmus ist folglich kein autonomes System.30 Daraus lassen sich die Kriterien der Zielorientiertheit, Eigenständigkeit, Lernfähigkeit und Reaktionsfähigkeit ableiten. Diese wurden von Wiebe 2002 zur Charakterisierung intelligenter Agenten herangezogen, welche er in Informations-, Kooperations- und Transaktionsagenten einteilte. Zwecke der Agenten können die Suche, Filterung und Präsentation von Information, Problemlösung gemeinsam mit anderen Agenten, Menschen oder externen Ressourcen und Durchführung von Transaktionen mit einschließen.31 Um in diesem Sinn autonom agieren zu können, muss ein Softwareagent die Vorlieben seines Nutzers kennen,32 was eine Verarbeitung personenbezogener Daten voraussetzen wird.

3.

Datenschutzrechtliche Implikationen ^

[5]

Datenschutzrechtlicher Anknüpfungspunkt ist die Verarbeitung personenbezogener Daten. Nachfolgend wird unter Rückgriff auf eine bestehende Kategorisierung gezeigt, welche Daten durch Bots erhoben werden könnten. Dabei zeigt sich, dass diese Parallelen zur Datenerhebung beim autonomen Fahren aufweisen. Darauf aufbauend wird reflektiert, welche Faktoren zur Einordnung eines KI-Systems als Verantwortlicher relevant sind. Unabhängig davon ist bei Betroffenenrechten, konkret der Umsetzung des Rechts auf Löschung und der Datenportabilität, Klärungsbedarf zu orten.

3.1.

Datenarten ^

[6]

Der Anwendungsbereich des Datenschutzes ist durch den Einsatz eines autonomen Systems wie beispielsweise eines Bots jedenfalls eröffnet, wie Tabelle 1 zeigt. Ausgehend vom vieldiskutierten33 autonomen Fahren kategorisieren Klink-Straub/Straub verschiedene Daten (Tabelle 1, linke Spalte), die auf die Verarbeitung von Daten durch Bots umgelegt wurden (rechte Spalte).

 

Kategorien erfasster Daten bei autonomem Fahren34 Der Kategorie entsprechende Beispiele für von Softwareagenten potentiell verarbeitete Daten
Eindeutige Kennung des Fahrzeuges Kennung des Geräts (Smartphone, Laptop):
  • IP-Adresse
  • Seriennummer
Technische Fahrzeugeigenschaften Technische Eigenschaften des Geräts:
  • Akkustand
  • Fehlerprotokolle
  • Internetverbindung (WLAN, 3G? E?) und Marke des Geräts könnten Rückschluss auf Ort und Vermögensverhältnisse erlauben
Nutzungsbezogene Informationen über Fahrten:
  • Bewegungsdaten (Pausen, Standorte)
  • Fahrer (Passwörter, Müdigkeit, Biometrie)
  • Fahrverhalten (Beschleunigung, Lenken)
  • Komfortfunktion u. Servicenutzung (Sitz, Radio, Internet)
  • Umfeldinformation (Witterung, Straßenverhältnisse, Verkehrsaufkommen)
Nutzungsbezogene Informationen:
  • Tippverhalten (Geschwindigkeit, Druck) kann Rückschlusse auf die Stimmung ermöglichen
  • Biometrische Daten wie z.B. Fingerabdruck, Foto
  • Standort
  • Jede Art am Gerät vorgenommener Personalisierung (Hintergrundbilder, Ruftontyp, Weckzeit, aktive und installierte Apps und andere Programme wie Spiele, gespeicherte Daten wie Dokumente und Musikdateien, Zwischenspeicher)
  • Sensordaten (Temperatur, Lichtverhältnisse)
  • Erkennung anderer Geräte im Umfeld

 

Tabelle 1: Durch autonome Systeme verarbeitete Datenarten

[7]

Es ist zu erwägen, sämtliche in Interaktion mit einem Bot anfallende Daten als personenbezogene Daten einzustufen, zumal auch erwogen wurde, «sämtliche durch ein Fahrzeug beim autonomen Fahren generierte Daten als personenbezogene Daten iwS zu behandeln»35. Kunnert unterscheidet Daten zur Eigenlokalisierung, zur Umweltsensorik, zum Verhalten und Zustand des Fahrers und aus Kommunikationsvorgängen sowie den Unfalldatenspeicher voneinander. Wie Tabelle 1 zeigt, könnten auch Bots entsprechende Daten erheben.

3.2.

Der Verantwortliche ^

[8]

Sowohl die Diskussion über die Zuordnung von Rechtspersönlichkeit zu einem autonomen System, die daran anknüpfende Haftung für Schäden als auch die konkrete technische Ausgestaltung des «Entscheidungsspielraums» des Systems haben Auswirkungen auf die datenschutzrechtliche Verantwortlichkeit. Theoretisch definiert Art 4 Z 7 DSGVO ganz klar jene Person als Adressaten der Rechenschaftspflicht, die über den Zweck und die Mittel der Datenverarbeitung entscheidet. Unerheblich für die Rolle des Verantwortlichen ist dabei, ob die Entscheidung alleine oder gemeinsam mit anderen gefällt wird. Wesentlich ist, wer «über das Ob, Wofür und Wieweit einer Datenverarbeitung»36 entscheidet, wer faktisch (nicht unbedingt rechtmäßig) die Entscheidungsmacht hat37. In der Praxis muss nicht eindeutig sein, ob dem Hersteller, dem Betreiber, dem Nutzer und/oder der KI selbst die Rolle des Verantwortlichen zukommt.38 Die Praxisrelevanz dieser Überlegungen zeigt die Auslegung der US-Bundesbehörde für Straßen- und Verkehrsaufsicht, wonach eine ein Fahrzeug steuernde KI unter den Begriff Lenker fällt.39

[9]

Die im Immaterialgüterrecht diskutierte rechtliche Zuordnung von durch Softwareagenten generiertem Wissen, das in die Schaffung eines schutzwürdigen Werkes mündet40, lässt sich auf das gesamte Privatrecht ausdehnen41. Seit über 15 Jahren42 ist die Frage strittig, ob einer technischen Vergegenständlichung (KI, Computer, Programm oder Roboter) eine Art Rechtspersönlichkeit zugeordnet werden soll. Gegen eine «ePerson» spreche, dass auftretende Rechtsfragen mit traditionellen Instrumenten ausreichend gelöst werden könnten: Das KI-System entscheide nicht autonom, sondern sei – wie ein Bleistift – Werkzeug zur Abgabe einer Willenserklärung des Nutzers43, der durch Genehmigung der Systemparameter das Ergebnis in Kauf nehme.44 Durch den vorgegebenen Agitationsrahmen sei ein Chatbot mit einem Warenautomat zu vergleichen und bloß das Medium, dessen sich der Betreiber zur Abgabe der Willenserklärung bedient.45 Autonome Softwareagenten können im Hinblick auf die Zurechnung von Willenserklärungen auch als «technische Hilfspersonen» gesehen werden, deren Agieren sich der Geschäftsherr wie eigene Handlungen zurechnen lassen müsse46. Auch fehlendes menschliches Bewusstsein wird gegen die Zuweisung einer Rechtspersönlichkeit ins Treffen geführt.47

[10]

Andererseits wurden Parallelen von KI Systemen zu juristischen Personen gezogen.48 Das Europäische Parlament unterstützt die Zuweisung von Rechtspersönlichkeit zu hoch entwickelten autonomen Robotern, vor allem weil die Verantwortung für von diesen verursachten Schäden klar zugewiesen und eigenständige Entscheidungen erfasst würden.49

[11]

Würde man Systemen eine Art Rechtspersönlichkeit zubilligen, käme eine Stellung als Stellvertreter oder Bote in Betracht50. Bei Teilrechtsfähigkeit und analoger Anwendung der Stellvertretungsregeln51 könnten autonome Systeme als beschränkt geschäftsfähige Stellvertreter für Vertragsabschlüsse eingesetzt werden, wenn deren Einsatz gekennzeichnet und so an die Möglichkeit geknüpft werde, den Vertragsabschluss mittels des autonomen Systems abzulehnen, solange die Überschreitung der Vertretungsmacht nicht technisch verhindert werden könne. 52 Schwierigkeiten bei einer Haftung für das Handeln des Systems ohne Vertretungsmacht sprächen gegen eine analoge Anwendung der Stellvertretungsregeln auf Softwareagenten.53 Es wurde die Schaffung einer neuen Gefährdungshaftung erwogen54 und für eine digitale Assistenzhaftung argumentiert, wobei der Vertretene für rechtswidrige Fehlentscheidungen seines Softwareagenten haften solle.55 Einerseits werden Gleichstellungen von autonomen Systemen mit Menschen in Bezug auf bestimmte Rechtsnormen und für autonome Systeme maßgeschneiderte Haftungsregelungen erwartet.56 Andererseits werden lediglich geringe Adaptionen des geltenden Rechts vorgeschlagen. Zur Verhinderung von Schwierigkeiten bei der Beweisführung einer Verschuldenshaftung solle die Einbeziehung von Software in den Produktbegriff geregelt werden.57 Zudem wird eine Haftung der KI selbst oder als Gehilfe erwogen. «Wenn der Roboter selbstständig denken kann (also vor allem nach den Vorstellungen der sog. «starken KI»), dann kann er auch schuldhaft handeln58

[12]

Prinzipiell knüpft Haftung – wie auch die Rolle des Verantwortlichen – an Steuerung an. Wer steuert aber ein autonomes System? Zieht man denjenigen, der den Not-Ausschalter59 betätigen kann, als Verantwortlichen in Betracht, ist zweifelhaft, inwiefern er im laufenden Betrieb über den Zweck und die Mittel der Verarbeitung entscheidet. Theoretisch denkbar ist eine zwischen Bot und Nutzer geteilte Verantwortlichkeit oder die Qualifikation des Bot als Auftragsverarbeiter, vorausgesetzt dem Bot soll Rechtspersönlichkeit zukommen.

[13]

Zu den mit der Rolle des Verantwortlichen einhergehenden Pflichten zählen umfangreiche Informationspflichten. Art 13 DSGVO ist maßgeblich, wenn personenbezogene Daten bei der betroffenen Person erhoben werden. Die Informationen gem. Art 13 DSGVO haben nach ihrem Zweck vor der Erhebung der Daten, d.h. vor dem erstmaligen zielgerichteten Zugriff eines bestimmten Verantwortlichen auf bestimmte personenbezogene Daten mit dem Ziel der Weiterverarbeitung, bei dem es dem Verantwortlichen möglich ist, die Informationen bereitzustellen (z.B. persönlicher Kontakt), zu erfolgen.60 Für den Fall mehrerer Verantwortlicher ist nach Art. 26 Abs. 1, 2. Satz DSGVO eine Vereinbarung über die Aufteilung der Erfüllung der Pflichten nach der DSGVO erforderlich, d.h. es muss nicht derjenige, der die Daten erhebt, auch die Informationspflichten erfüllen,61 mehrere Verantwortliche haften solidarisch.62 Wäre das System rechtsfähig, könnten Pflichten und Haftung auch das System selbst treffen. Diesfalls sollte ein Chatbot als erste Antwort oder noch vor Beginn der Konversation die Informationen erteilen und mit einem eigenen Haftungsfonds ausgestattet sein. Für den Fall des Systems als Verantwortlicher wäre m.E. die Kennzeichnung von Bots, für welche Pflicht es auch andere Argumente63 gibt, dann als von den datenschutzrechtlichen Informationspflichten umfasst anzusehen. Förderlich für die Transparenz kann außerdem die Offenlegung des Algorithmus sein.64

3.3.

Betroffenenrechte ^

[14]

Für die Rechtmäßigkeit der Datenverarbeitung durch autonome Systeme sind Einwilligung und Erfüllung eines Vertrages in Betracht zu ziehen. Die Erfüllung eines Vertrages etwa dann, wenn ein Bot dazu eingesetzt wird, die bevorzugten Datenschutzeinstellungen seines Nutzers auf Seiten zu hinterlegen.65 Schon im Sinn der Datensparsamkeit sollte ihm die Ablehnung der nicht für den Einsatz des Bot nötigen Datenverarbeitungen möglich sein.66 Für eine informierte Entscheidung sollte transparent sein, welche Sicherheitsmaßnahmen in den einzelnen Abschnitten der Datenverarbeitung von der Auswahl der zu speichernden Daten über die Speicherung, den Zugriff auf gespeicherte Daten bis hin zu deren Löschung getroffen werden und soweit technisch zur Erfüllung der Aufgabe möglich, sollten die bei der Nutzung von Softwareagenten anfallenden Daten sofort überschrieben werden.67 Technische Standards in der Umsetzung des Rechts auf Löschung und des Rechts auf Datenportabilität sind besonders im Hinblick auf eine mögliche zukünftige Stellung autonomer Systeme als Verantwortliche relevant, werden aber auch unabhängig davon gefordert. Es bestehe Ungewissheit, welche Handlung das Recht auf Löschung erfüllt, z.B. ob bei Datenbanken die Entfernung aus dem Suchindex, das Überschreiben der Datei, die Löschung aus Log-Dateien und Sicherheitskopien oder die Entfernung von allen internen Mechanismen nötig sei.68 Die Annahme, dass der Gesetzgeber nicht Unmögliches verlangt, bedarf einer praktischen Konkretisierung. Präzisierungsbedarf beim Recht auf Datenportabilität betrifft den Fall des Vorliegens mehrerer Betroffener. Im Hinblick auf die Stärkung Betroffener durch die Bekämpfung des «Lock-In Effekts»69 haben diese das Recht, auf Grund einer Einwilligung oder eines Vertrages70 dem Verantwortlichen bewusst oder weniger bewusst71 bereitgestellte Daten, die sich zumindest auch auf den anfragenden Betroffenen beziehen, auf eine andere IT-Umgebung übertragen zu bekommen72, sofern die Daten automatisiert verarbeitet werden. Wenn der empfangende Verantwortliche die gesandten Daten verarbeitet – wozu er nicht verpflichtet ist – hat er aus den empfangenen Daten nur jene zu verarbeiten, die er für den neuen Zweck benötigt.73 Im Einzelfall kann das Ziehen der Grenze zwischen berechtigter Rechtsausübung und Beeinträchtigung der Rechte anderer herausfordernd sein. 74

4.

Ausblick ^

[15]

Die Datenverarbeitung durch Bots ist mit der Datenverarbeitung bei autonomem Fahren vergleichbar. Es können Daten über das Gerät samt seinen technischen Eigenschaften wie auch mannigfaltige nutzungs- und nutzerbezogene Daten von der Art der Internetverbindung über das Tippverhalten bis hin zu Charakteristika der Umgebung des Geräts und des Nutzers erhoben werden. Auf Grund des Potentials des Einsatzes von Bots75 verdient die Auseinandersetzung mit den rechtlichen Folgen eine ähnliche Aufmerksamkeit wie sie dem autonomen Fahren zuteilwird. Es bedarf der Auseinandersetzung mit dem Umgang autonomer Systeme im Hinblick auf eine ihnen zugeschriebene datenschutzrechtliche Verantwortlichkeit. Technische Standards für die Erfüllung des Rechts auf Löschung aus vernetzten autonomen Systemen und Maßnahmen zur Miteinbeziehung der weiteren Betroffenen im Fall der Datenportabilität sind festzulegen. Begriffsbestimmungen innerhalb der KI sollten divergierende Annahmen ablösen. Um die technische Einhaltung der Datenschutzgrundsätze durch autonome Systeme sicherzustellen, bedarf es einer Zusammenarbeit zwischen Juristen und Technikern76. Weitere Forschungsfelder sind die Förderung der Berücksichtigung des Rechts auf Privatsphäre durch die einzelnen Nutzer untereinander77 und die Kriterien, die autonome Systeme zur Abwägung anwenden sollen, wenn mehrere Rechtsgüter von ihrer Entscheidung betroffen sind78. Konkretere Fragen wie die Gestaltung der Haftung für durch autonome Systeme verursachte Schäden harren genauso einer allgemein akzeptierten Lösung wie weniger greifbare Themenkreise. Zur letztgenannten Gruppe gehören die Erhebung der freien und unbeeinflussten Entwicklung der Menschen zum obersten Ziel des Einsatzes autonomer Systeme sowie die Frage, inwiefern das Recht Systemen «das Gute» vorgeben kann.79 Die Dringlichkeit dieser Forschungsansätze ergibt sich aus Ambitionen, hoch entwickelte Systeme einen Beitrag zu einer besseren Lebensqualität der Menschen leisten zu lassen.

«Die Rechenautomaten haben etwas von den Zauberern im Märchen. Sie geben einem wohl, was man sich wünscht, doch sagen sie einem nicht, was man sich wünschen sollNorbert Wiener (1894–1964)

  1. 1 Z.B. bei Vorsorgevollmachten: Wendehorst, Die Digitalisierung und das BGB, NJW 2016, 2609 (2610–2611).
  2. 2 Europäisches Parlament (EP) 2017, P8_TA (2017)0051, Entschließung vom 16. Februar 2017 (2015/2103(INL)); Deutsche Bundesregierung, Eckpunkte für eine Strategie Künstliche Intelligenz (2018); Beschlussprotokoll des 37. Ministerrates vom 28. November 2018; Österreichischer Rat für Robotik und Künstliche Intelligenz, 2018, White Paper, https://www.bmvit.gv.at/innovation/downloads/white_paper_robotikrat.pdf.
  3. 3 German/Zenil, Afterword to Konrad Zuse’s Rechnender Raum, S. 58, 62
  4. 4 Turing, Computing Machinery and Intelligence. 1950 Mind 49: 433–460; zur historischen Entwicklung Strasser, Kognition künstlicher Systeme, ontos verlag, 2006, 18 ff.
  5. 5 Z.B. zur Vervollständigung von Suchanfragen https://en.wikipedia.org/wiki/Autocomplete; Zum Forschungsförderungsantrag https://de.wikipedia.org/wiki/John_McCarthy.
  6. 6 Mehr, Artificial Intelligence for Citizen Services and Government, 2017, Ash Center for Democratic Governance and Innovation Harvard Kennedy School, 3.
  7. 7 Russel/Norvig, Artificial Intelligence A Modern Approach3, Pearson Education Limited, 2016, Preface.
  8. 8 Winston 1987, zitiert nach Strasser, Kognition künstlicher Systeme, ontos verlag, 2006, 17.
  9. 9 Kaplan/Haenlein, Siri, Siri, in my hand: Who’s the fairest in the land? On interpretations, illustrations, and implications of artificial intelligence, Business Horizons (2018), Article in press, Elsevier Inc., https://doi.org/10.1016/j.bushor.2018.08.004.
  10. 10 Kontroverse Diskussion zur These der «starken KI» z.B. Zelewski, Die Starke KI-These: Zu Searle’s Wiederbelebung einer fragwürdigen Debatte über die Grundlagen des Erkenntnisprogramms der Erforschung Künstlicher Intelligenz (KI), Zeitschrift für allgemeine Wissenschaftstheorie Vol. 22, No. 2, Springer (1991), S. 337–348.
  11. 11 Kaplan/Haenlein, (2018).
  12. 12 Stancombe et al., Capgemini Digital Transformation Institute, Turning AI into concrete value: the successful implementer’s toolkit, 5, https://www.capgemini.com/wp-content/uploads/2018/01/turning-ai-into-concrete-value-the-successful-implementers-toolkit.pdf.
  13. 13 Kirn/Müller-Hengstenberg, Intelligente (Software-)Agenten: Von der Automatisierung zur Autonomie? Verselbständigung technischer Systeme, MMR 2014, 225 (229).
  14. 14 Andrade, Product Owner, Coresystems (2018) https://www.coresystems.net/de/blog/der-unterschied-zwischen-kuenstliche-intelligenz-maschinelles-learning-und-deep-learning.
  15. 15 Dies wäre gar nicht nötig, wenn Intelligenz erst aus der Interaktion von Mensch und Maschine entstünde, Görz/Schmid/Wachsmuth, in: Görz/Schneeberger/Schmid (Hrsg.), Handbuch der Künstlichen Intelligenz, Oldenburg Verlag München (2014), 4.
  16. 16 Deep Blue besiegte 1997 den russischen Schachweltmeister, https://de.wikipedia.org/wiki/Deep_Blue; AlphaGo besiegte 2016 einen der weltbesten Go-Spieler, https://de.wikipedia.org/wiki/AlphaGo.
  17. 17 Teubner, Digitale Rechtssubjekte? Zum privatrechtlichen Status autonomer Softwareagenten in Ancilla Iuris 2018, Lagen des Rechts, 35–78 (46).
  18. 18 Vulkan (1999), Economic Implications of Agent Technology and E-Commerce, The Economic Journal 109 (February), Royal Economic Society, Blackwell Publishers Oxford UK and Malden USA, F67-F90 (F68).
  19. 19 Bonn https://govbot.bonn.de/; London https://www.facebook.com/tfltravelbot/; Wien https://de-de.facebook.com/wienbot/; U.S. Department of Homeland Security https://www.uscis.gov/emma.
  20. 20 Köbrich/Froitzheim, Lass uns quatschen – Werbliche Kommunikation mit Chatbots, WRP 10/2017, 1188.
  21. 21 Autonomie hänge zwingend mit dem Menschsein zusammen, EGE, Erklärung zu künstlicher Intelligenz, Robotik und «autonomen» Systemen (2018), S. 7, 10, 19, 20.
  22. 22 Borges, NJW 2018, 977 (978), andere Begriffe: Software-Agenten, Roboter und cyberphysische Systeme.
  23. 23 So z.B. Dumitrescu et al. (2018), Studie «Autonome Systeme», Studien zum deutschen Innovationssystem, No. 13-2018, Expertenkommission Forschung und Innovation (EFI), Berlin, 9.
  24. 24 EP (2017), P8_TA(2017)0051, definiert werden sollen cyberphysische Systeme, autonome Systeme und intelligente autonome Roboter samt Unterkategorien. Die Definition bezieht sich auf die Autonomie eines Roboters.
  25. 25 Dumitrescu et al. (2018), Studie «Autonome Systeme», 13.
  26. 26 Cornelius, Vertragsabschluss durch autonome elektronische Agenten, MMR 2002, 353.
  27. 27 Dumitrescu et al. (2018), Studie «Autonome Systeme», 8, 12, 14 und 16.
  28. 28 Teubner, Digitale Rechtssubjekte? 35–78 (55).
  29. 29 Kirn/Müller-Hengstenberg, MMR 2014, 225 (225).
  30. 30 Kaplan/Haenlein, (2018) über den Algorithmus Deep Blue.
  31. 31 Wiebe (2002), Die elektronische Willenserklärung, J.C.B. Mohr (Paul Siebeck), Tübingen, 28.
  32. 32 Vulkan (1999), The Economic Journal 109 (February), USA, F67-F90 (F86).
  33. 33 Lutz/Tang/Lienkamp, Die rechtliche Situation von teleoperierten und autonomen Fahrzeugen, NZV 2013, 57; Jänich/Schrader/Reck, Rechtsprobleme des autonomen Fahrens, NZV 2015, 313; Templ, Über «die Haftungsfrage» von selbsttätig am Straßenverkehr teilnehmenden Kfz, ZVR 2016/7, 10; Eisenberger/Gruber/Huber/Lachmayer, Automatisiertes Fahren, Komplexe regulatorische Herausforderungen, ZVR 2016/158, 383; Eisenberger/Lachmayer/Eisenberger (Hrsg.), Autonomes Fahren und Recht, Manz, Wien, 2017; Lange, Automatisiertes und autonomes Fahren – eine verkehrs-, wirtschafts- und rechtspolitische Einordnung, NZB 2017, 345; Reck, Autorecht 2017 – Autonomes Fahren – Zwischenstand, ZD-Aktuell 2017, 04271; Stender-Vorwachs/Steege, Das Aus für Autonomes Fahren? Rechtliche und technische Möglichkeiten von Verkehrskontrollen bei autonomen Fahrzeugen, NZ 2017, 553; Wendt, Autonomes Fahren und Datenschutz – eine Bestandsaufnahme, ZD-Aktuell 2018, 06034; Stoklas, Videokameras in autonomen Fahrzeugen aus datenschutzrechtlicher Sicht, ZD-Aktuell 2018, 06268; Romankiewicz-Wenk/Jirak, Autonomes Fahren in Österreich – eine Utopie?, ecolex 2018, 466.
  34. 34 Klink-Straub/Straub, Vernetzte Fahrzeuge – portable Daten, Das Recht auf Datenübertragbarkeit gem. Art. 20 DS-GVO, ZD 2018, 459 (460).
  35. 35 Kunnert, «Autonomes Fahren» aus datenschutzrechtlicher Sicht, in: Eisenberger/Lachmayer/Eisenberger (Hrsg.), Autonomes Fahren und Recht, Manz, Wien, 2017, 169 (189).
  36. 36 Hartung, in: Kühling/Buchner, Datenschutz-Grundverordnung 2017, C.H.Beck München, Art 8 Nr 7 Rz 13.
  37. 37 WP 29, 2010, Stellungnahme 1/2010 zu den Begriffen «für die Verarbeitung Verantwortlicher» und «Auftragsverarbeiter», 11.
  38. 38 Schwierigkeiten in der Anwendung ortet auch Conrad, Kann die Künstliche Intelligenz den Menschen entschlüsseln? – Neue Forderungen zum Datenschutz, Datenschutz und Datensicherheit 9/2018, S. 541–546 (544).
  39. 39 Eisenberger/Gruber/Huber/Lachmayer, ZVR 2016/158, 386.
  40. 40 Kirn/Müller-Hengstenberg, MMR 2014 (225); Programme als Urheber von durch sie generierten Werken; Davies, An evolutionary step in intellectual property rights – Artificial intelligence and intellectual property, Computer Law & Security Review 27 (2011), S. 601–605.
  41. 41 Borges, NJW 2018, 977 (979).
  42. 42 Z.B. Cornelius, Vertragsabschluss durch autonome elektronische Agenten, MMR 2002, 353 (354).
  43. 43 Ähnlich: Cornelius, MMR 2002, 353 (356), die Zurechnung der Willenserklärung zu den Nutzern sei durch Zielvorgaben – wie Produkt und Preisspanne – und die Aktivierung des Systems durch die Nutzer begründet.
  44. 44 Rabl, The Rise of the Machines – outsmarting the ABGB and everything else?, ecolex 2017, 611 (612); gegen Rechtsfähigkeit von intelligenten Agenten auch Müller-Hengstenberg/Kirn, Intelligente (Software-)Agenten: Eine Herausforderung unseres Rechtssystems Rechtliche Konsequenzen der «Verselbständigung» technischer Systeme, MMR 2014, 307 (308), wonach intelligente Agenten ohne Handlungs- und Geschäftsfähigkeit in den Rechtsverkehr «eingreifen» würden.
  45. 45 Köbrich/Froitzheim, WRP 10/2017, 1188 (1191 f.).
  46. 46 Zöchling-Jud, in: Forgó/Zöchling-Jud, Das Vertragsrecht des ABGB auf dem Prüfstand: Überlegungen im digitalen Zeitalter, 2018, Manz, Wien, 145 unter Hinweis auf IRO JBl 1982, 519.
  47. 47 Köbrich/Froitzheim, WRP 10/2017, 1188 (1190); auf Grund des Mangels eines Bewusstseins über die eigene Existenz könnten Systeme keinen Willen bilden und könne ihnen auch keine Rechtspersönlichkeit zukommen. Cornelius, MMR 2002, 353 (354); anderer Ansicht Teubner: «Es ist unhaltbar zu behaupten, dass erst wenn digitale Autonomie zu Selbstbewusstsein erstarkt ist, dann auch Rechtspersönlichkeit indiziert sei», Teubner Digitale Rechtssubjekte? Zum privatrechtlichen Status autonomer Softwareagenten.
  48. 48 Cerka/Grigiene/Sirbikyte, Is it possible to grant legal personality to artificial intelligence software systems?, Computer Law & Security Review 33 (2017) 658 (697).
  49. 49 EP (2017), P8_TA(2017)0051.
  50. 50 Kessler, Intelligente Roboter – neue Technologien im Einsatz, MMR 2017, 589.
  51. 51 Teubner, Digitale Rechtssubjekte?, dies weise Ähnlichkeiten zur Stellung der Sklaven im römischen Recht auf.
  52. 52 Specht/Herold, Roboter als Vertragspartner? Gedanken zu Vertragsabschlüssen unter Einbeziehung automatisiert und autonom agierender Systeme, MMR 2018, 40 (43); für die Kennzeichnung von Social Bots: Libertus, Rechtliche Aspekte des Einsatzes von Social Bots de lege lata und de lege ferenda, ZUM 2018, 20 (22, 26).
  53. 53 Cornelius, MMR 2002, 353 (354–355).
  54. 54 In Betracht kommt die Schaffung eines Gefährdungshaftungstatbestands für autonome Systeme, Zöchling-Jud, in: Forgó/Zöchling-Jud, 2018, Manz, Wien, 145.
  55. 55 Teubner, Digitale Rechtssubjekte?.
  56. 56 Borges, NJW 2018, 977 (979, 982).
  57. 57 Dies diente auch der Eliminierung der betraglichen Grenze des EKHG; Templ, ZVR 2016/7, 10.
  58. 58 Kessler, Intelligente Roboter – neue Technologien im Einsatz, MMR 2017, 589 (593).
  59. 59 Das EP fordert den Einbau von Ausklinkmechanismen (Kill-Schaltern), EP (2017), P8_TA(2017)0051, 26.
  60. 60 Bäcker, in: Kühling/Buchner, 2017, Art 13, Rz 12–13 und 56.
  61. 61 Bäcker, in: Kühling/Buchner, 2017, Art 13, Rz 18.
  62. 62 Bergt, in: Kühling/Buchner, 2017, Art 82, Rz 57. Regress gem Art 82 Abs 5 DSGVO nach Art und Umfang des Beitrags Becker, in: Plath (Hrsg.), BDSG DSGVO2, ottoschmidt, Köln, 2016, Art 82 Rz 7.
  63. 63 Für eine Kennzeichnungspflicht von Social Bots: Milker, Social Bots im Meinungskampf – wie Maschinen die öffentliche Meinung beeinflussen und was wir dagegen unternehmen können, ZUM 2017, 216 (216–221); ferner Libertus, Rechtliche Aspekte des Einsatzes von Social Bots de lege lata und de lege ferenda, ZUM 2018, 20 (22, 26) und deutscher Bundesrat, Entschließung vom 23. November 2018 (Beschluss 519/18); für die Kennzeichnungspflicht von Chatbots: Köbrich/Froitzheim, WRP 10/2017, 1188 (1190); für die Kennzeichnung eines teilrechtsfähigen autonomen Systems und auch der vertretenen Person: Specht/Herold, MMR 2018, 40 (43). Das EP forderte eine Kennzeichnung von Robotern, EP (2017), P8_TA(2017)0051.
  64. 64 Die Offenlegung des Algorithmus ist derzeit auch bei automatisierten Entscheidungen datenschutzrechtlich nicht nötig, Österreichischer Rat für Robotik und Künstliche Intelligenz, White Paper, 2018, 49.
  65. 65 Jung, Die Datenschutzformel – Vom Atmen und der Beatmung des Datenschutzes, MMR 2018, 394 (350).
  66. 66 Vgl. die diskutierte Opt-Out-Option in Bezug auf die Verwendung von Daten bei automatisierten Fahrzeugen Eisenberger/Gruber/Huber/Lachmayer, ZVR 2016/158, 389.
  67. 67 Vgl. Ansätze zur Senkung der Eingriffsintensität bei Videoaufnahmen STOKLAS, ZD-Aktuell 2018, 06268.
  68. 68 Technisch werde durch Markierung der Datei als gelöscht und Entfernung aus dem Suchindex ohne Überschreibung der Datei gelöscht. Villaronga/Kieseberg/Li, Humans forget, machines remember: Artificial intelligence and the Right to Be Forgotten, Computer Law & Security Review 34, Elsevier, (2018) 304–313, S. 309–313.
  69. 69 WP 29 (2017), Guidelines on the right to data portability, 5. Dieses Recht steht auch bei aufrechtem Vertrag mit dem Verantwortlichen zu: Forgó, in: Forgó/Zöchling-Jud, 2018, Manz, Wien, 112.
  70. 70 Erwägungsgrund 68 nennt den vorvertraglichen Zeitraum nicht, Kamann/Braun, in: Ehmann/Selmayr 2017, DS-GVO, C.H.BECK LexisNexis, München, Art 20 Rz 18.
  71. 71 Durch Nutzung von Geräten oder Dienstleistungen entstandene Daten wie ein Suchverlauf fallen darunter, nicht jedoch Ergebnisse einer Datenanalyse durch den Verantwortlichen. WP 29 (2017), Data Portability, 10.
  72. 72 Ziel-IT-Umgebungen: Systeme des Betroffenen, eines Dritten oder eines neuen Verantwortlichen; Datenportabilität ist kein Grund für eine längere Speicherung von Daten, WP 29 (2017), Data Portability, 4, 6, 9.
  73. 73 Der Zweck ist zuvor bekannt zu geben, WP 29 (2017), Data Portability, 6 und 7.
  74. 74 Art 20 Abs 4 DSGVO; Remmertz, Aktuelle Entwicklungen im Social Media-Recht – Überblick der relevanten Themen aus Unternehmenssicht, MMR 2018, 507; ein (weiterer) Betroffener könne die direkte Übertragung von einem Verantwortlichen an einen anderen verhindern, so Kamann/Braun, in: Ehmann/Selmayr (2017), Art 20 Rz 31. Strittig: das Recht auf Datenportabilität beziehe sich nur auf jene Daten, die allein den Antragsteller betreffen, dazu zusammenfassend dies Art 20 Rz 15.
  75. 75 Mehr, Artificial Intelligence for Citizen Services and Government, (2017), 4; Androutsopoulou et al., Transforming the Communication between citizens and government through AI-guided chatbots (2018), Government Information Quarterly, Article in press, https://doi.org/10.1016/j.gip.2018.10.001.
  76. 76 Vgl. Kunnert, Autonomes Fahren und Recht, Manz, Wien, 2017, 169 (173).
  77. 77 EP (2017), P8_TA(2017)0051: Nutzer sollten das Recht auf Privatsphäre der anderen berücksichtigen, «wozu auch die Deaktivierung von Monitoren bei intimen Verfahren gehört».
  78. 78 Kessler, MMR 2017, 589 (593), wonach die Erkennung verschiedenwertiger Rechtsgüter samt Entscheidung durch einen Zufallsgenerator bei gleichrangigen Rechtsgütern ausreichend sei.
  79. 79 EGE, Erklärung zu künstlicher Intelligenz, Robotik und «autonomen» Systemen (2018), 11 und 18–22.