Jusletter IT

Verantwortungsbewusste Digitalisierung am Beispiel des «AMS-Algorithmus»

  • Author: Jonas Pfister
  • Category of articles: Legal Informatics
  • Category: Articles
  • Region: Austria
  • Field of law: Legal Informatics
  • Collection: Conference proceedings IRIS 2020
  • DOI: 10.38023/fc0c187a-5c52-4935-9f12-63a0732c81d1
  • Citation: Jonas Pfister, Verantwortungsbewusste Digitalisierung am Beispiel des «AMS-Algorithmus», in: Jusletter IT 27 Mai 2020
Zukünftig sollen Arbeitssuchende von einem Algorithmus bewertet werden. Das deklarierte Ziel des zugrundeliegenden Projekts ist die «Entwicklung eines Modells zur Prognose der regionalspezifischen Arbeitsmarkt-Integrationschancen von vorgemerkten Arbeitslosen» [1]. Im Rahmen seines Dissertationsvorhabens beleuchtet der Autor rechtliche Problematiken der Implementierung derartiger Bewertungsalgorithmen. Dieser Artikel widmet sich insbesondere dem Art. 22 DSGVO und seiner Relevanz für den Einsatz des AMS-Algorithmus. Dabei soll die ethische Debatte rund um den Algorithmus auf ihre rechtliche Bedeutung im Bereich des Datenschutzrechts untersucht werden.

Inhaltsverzeichnis

  • 1. Einleitung
  • 2. Ethische Perspektive
  • 3. Datenschutzrechtliche Rahmenbedingungen
  • 4. Bedeutung der datenschutzrechtlichen Einordnung für den AMS-Algorithmus
  • 5. Zur rechtlichen Bedeutung des Verantwortungsbewusstseins
  • 6. Conclusio
  • 7. Literatur

1.

Einleitung1 ^

[1]

Arbeitssuchende sollen zukünftig von einem Algorithmus hinsichtlich ihrer Integrationschancen in den Arbeitsmarkt bewertet werden. Die maschinellen Bewertungen sollen als Basis für die Entscheidung, ob und welche Förderungen zugewendet werden, dienen.2 Das Arbeitsmarktservice wagte damit einen bedeutenden Schritt hin zur Digitalisierung.3 Dennoch ließ die Kritik nicht lange auf sich warten. Wie dem Konzeptpapier des zugrundeliegenden Forschungsprojekts der Synthesis GmbH zu entnehmen ist, sollen nämlich unter anderem Merkmale wie Alter, Geschlecht und gesundheitliche Einschränkungen zur Errechnung der Erwartungswerte herangezogen werden.4 KritikerInnen befürchten, dass bereits bestehende Vorurteile «einzementiert» würden.5 Der Algorithmus wurde gar als «Paradebeispiel für Diskriminierung» bezeichnet.6

2.

Ethische Perspektive ^

[2]

Über die Diskriminierungsproblematik hinaus war das Projekt der Auslöser für eine umfassende ethische Debatte und warf Grundsatzfragen7 zum Einsatz eines Bewertungsalgorithmus durch das Arbeitsmarktservice auf. Wie Spiekermann in einem Blogeintrag erklärte, sei bei der Frage, ob die Technologie zum Einsatz kommen sollte, vor allem die Würde des einzelnen Menschen zu berücksichtigen. Der Einsatz dürfe nicht dazu führen, dass Menschen in Schubladen gesteckt werden. Stattdessen müsse man auf individuelle Lebenslagen eingehen und diese Aspekte entsprechend würdigen, bevor eine Entscheidung getroffen wird.8 Das AMS hält dem entgegen, dass nicht der Algorithmus entscheidet, sondern SachbearbeiterInnen. Daran hält der Leiter des AMS in seiner Replik auch fest.9 Spiekermann hinterfragt dies jedoch kritisch, da Experimente zeigen würden, dass Menschen großes Vertrauen in Maschinenurteile hätten und daher in aller Regel nicht von diesen abweichen würden. Die zentrale Fragestellung lautet, welcher Freiheitsgrad den AMS-SachbearbeiterInnen beim potentiellen Abweichen von der Entscheidung zukommt.10 Wie viel Verantwortung tragen die MitarbeiterInnen des AMS und sind sie sich dieser bewusst?

[3]

Dass es sich bei dieser «Gretchenfrage»11 nicht allein um philosophische oder ethische Überlegungen handelt, sondern diese durchaus auch rechtliche Auswirkungen hat, sollen die nachfolgenden Ausführungen aufzeigen.

3.

Datenschutzrechtliche Rahmenbedingungen ^

[4]

Mit der Einführung der Datenschutzgrundverordnung wurden auch neue Bestimmungen zu automatisierten Einzelfallentscheidungen einschließlich Profiling geschaffen. Zentral ist vor allem der Art. 22 DSGVO.12 Diese Bestimmung wurde im Zusammenhang mit Algorithmen vielfach unter dem Stichwort «Scoring» diskutiert.13 Die Norm sieht bestimmte Einschränkungen und Schutzmechanismen vor, die Betroffene vor maschinellen Entscheidungen schützen sollen.14 Auch der Einsatz eines Bewertungsalgorithmus wie jener des AMS kann unter Umständen unter diese Norm fallen. Ob Art. 22 DSGVO auf den konkreten Bewertungsalgorithmus anwendbar ist, ist allerdings abhängig von der Ausgestaltung.15

[5]

Sofern der Bewertungsalgorithmus in den Anwendungsbereich der Bestimmung fällt, werden die potentiellen Rechtsgrundlagen, die dessen Einsatz rechtfertigen können, eingeschränkt. Erlaubt ist die Verarbeitung der notwendigen Daten dann lediglich, wenn die automatisiert getroffene Entscheidung aufgrund eines konkreten Vertrages erforderlich16, aufgrund einer Rechtsvorschrift vorgesehen17 oder aufgrund der Einwilligung der betroffenen Person gerechtfertigt ist18. Der Verantwortliche kann sich daher beispielsweise nicht auf seine berechtigten Interessen19 stützen. Zudem dürfen – mit einigen Ausnahmen – keine besonderen Kategorien personenbezogener Daten wie beispielsweise Daten zu Gesundheit20 oder ethnischer Herkunft verarbeitet werden.21 Einschlägig ist dann zumeist auch Absatz 3, wonach dem Betroffenen das Recht zusteht, das Eingreifen einer Person seitens des Verantwortlichen zu erwirken, den eigenen Standpunkt darzulegen, sowie die algorithmische Entscheidung anzufechten. Zusätzlich müssen bei Vorliegen einer automatisierten Entscheidung iSd. Art. 22 DSGVO auch die involvierte Logik des Algorithmus offengelegt22 und stets angemessene Maßnahmen vorgesehen werden, die den Schutz der Rechte und Freiheiten sowie der berechtigten Interessen der betroffenen Person berücksichtigen.23 Ist die Bestimmung jedoch nicht anwendbar, kommen diese Einschränkungen und Schutzmechanismen den bewerteten Personen nicht zu Gute.

4.

Bedeutung der datenschutzrechtlichen Einordnung für den AMS-Algorithmus ^

[6]

Ob Art. 22 DSGVO einschlägig ist, ist daher eine Frage mit weitreichenden Folgen. Im Falle des AMS-Algorithmus würde die Anwendbarkeit zunächst bedeuten, dass sich das AMS auf eine der genannten Rechtsgrundlagen stützen muss. Hierbei wäre natürlich als Rechtsgrundlage § 25 AMSG24 anzudenken, den wohl auch das AMS als zentrale Norm ansieht.25 Dieser Paragraph stellt eine sehr weitreichende Rechtfertigung für die Datenverarbeitung dar, wäre aber mMn. bei Anwendbarkeit des Art. 22 DSGVO für sich alleine nicht ausreichend, da keine «angemessenen Maßnahmen zur Wahrung der Rechte und Freiheiten sowie der berechtigten Interessen der betroffenen Person» vorgesehen sind, wie dies Art. 22 Abs. 2 lit. b DSGVO fordert.26 Sieht man diese Rechtsgrundlage dennoch als ausreichend an, so dürften in diesem Sonderfall aufgrund der Ausnahmen in Art. 22 Abs. 4 DSGVO auch besondere Kategorien personenbezogener Daten iSd. Art. 9 DSGVO verarbeitet werden.

[7]

Stützt sich das AMS auf eine Rechtsvorschrift27, so ist Art. 22 Abs. 3 DSGVO, welcher unter anderem die Anfechtungsmöglichkeit vorsieht, expressis verbis nicht anwendbar. Dies ist nämlich nur der Fall, wenn die Datenverarbeitung auf der Einwilligung oder einem Vertrag beruht. ME. sprechen allerdings gute Gründe dafür, die Worte «angemessene Maßnahmen» in Art. 22 Abs. 2 lit. b derart zu interpretieren, dass zumindest vergleichbare Instrumente wie in den Fällen des Art 22 Abs. 2 lit. a und c vorgesehen werden müssen. Dies entspricht auch den Erläuterungen in ErwGr. 7128 sowie der Argumentation der Art-29-Datenschutzgruppe, die erläutert, dass die Festlegung geeigneter Garantien jedenfalls das Recht auf Darlegung des eigenen Standpunktes sowie das Recht auf Anfechtung der Entscheidung umfassen sollte.29

[8]

Dementsprechend wäre eine weitere Folge der Anwendbarkeit des Art. 22 DSGVO, dass das AMS KundInnen zusätzlich die Möglichkeit geben müsste, ihren eigenen Standpunkt zur algorithmischen Entscheidung darzulegen, sowie die Entscheidung anzufechten. Darüber hinaus müsste den KundInnen, die mittels dieses Algorithmus bewertet werden, die involvierte Logik dargelegt werden. Diese letzten Punkte sind insbesondere vor dem Hintergrund interessant, dass gerade im Hinblick auf potentielle Diskriminierungen vermehrte Kritik am Einsatz des Algorithmus aufgekommen ist und gar ein «Beipackzettel» für diesen gefordert wurde.30

[9]

Aus Sicht der KundInnen wären die oben genannten Instrumente und Einschränkungen des Art. 22 DSGVO natürlich wünschenswert, da sie ein erhöhtes Schutzniveau für Betroffene bieten würden. Das verpflichtende Vorsehen einer Anfechtungsmöglichkeit der getroffenen Entscheidung kann ganz allgemein im Vergleich zu einem gerichtlichen Verfahren ein effizientes und vor allem kostengünstiges Mittel zur Einwirkung auf Entscheidungen sein. Dabei muss im konkreten Fall zusätzlich auch bedacht werden, dass gemäß § 34 Abs. 3 AMSG kein Rechtsanspruch auf Beihilfen besteht, wodurch eine potentielle Durchsetzung im prozessualen Weg wohl erschwert wird. Zudem hätte eine betroffene Person im Rahmen der datenschutzrechtlichen Instrumente auch die vergleichsweise einfache Möglichkeit, eine unabhängige Aufsichtsbehörde einzuschalten, sofern sie beispielsweise der Meinung ist, dass bei der Bewertung keine ausreichenden Maßnahmen zum Schutz der Rechte und Freiheiten sowie der berechtigten Interessen der betroffenen Person getroffen wurden. Diese genannten Folgen treten, wie erwähnt, aber nicht ein, wenn es sich um keine automatisierte Entscheidung im Einzelfall einschließlich Profiling iSd. Art. 22 DSGVO handelt. Es ist davon auszugehen, dass dies in Bezug auf den AMS-Algorithmus seitens der Verantwortlichen argumentiert wird. Es liegt hier zwar zweifelsohne Profiling vor, da persönliche Aspekte eines Einzelnen bewertet werden. Diese sollen auch zur Analyse und Prognose der Arbeitsmarktchancen dienen.31 Ebenso hätten Entscheidungen des AMS wohl zumindest beeinträchtigende Wirkung.32 Die Entscheidung ist aber nicht ausschließlich automatisiert, wie dies in Art. 22 Abs 1 DSGVO gefordert wird. Wie vom aktuellen Leiter des AMS beschrieben, werden die Entscheidungen nämlich nicht vom Algorithmus getroffen.33 Vielmehr läge die Entscheidung über die Einschätzung der Chancen auf dem Arbeitsmarkt bei den BeraterInnen. Diese würden auch «ermutigt», die errechneten Werte zu überprüfen und auch zu korrigieren.34

[10]

Ein vergleichbares Beispiel im Bereich des Arbeitsmarktes wird in der Kommentarliteratur von Schulz und Haidinger ausgeführt. Sie erläutern, dass die bloße Reihung von Bewerbern durch ein E-Recruiting-Tool keine ausschließlich automatisierte Verarbeitung darstellt, sofern der Arbeitgeber anschließend die Selektion vornimmt.35 Nach Haidinger sei Art. 22 DSGVO nicht anwendbar, sofern eine Bewertung lediglich Teil des Entscheidungsprozesses ist, der letztendlich maßgebend von einem Menschen beeinflusst wird.36 Damit gehen die Autoren wohl konform mit den Ausführungen der Art-29-Datenschutzgruppe. Diese trennt in ihren Ausführungen klar Entscheidungsfindungen, die auf Profiling beruhen, von auschließlich automatisierten Entscheidungsfindungen einschließlich Profiling.37 Gewisse Leitlinien gelten zwar für alle Profiling-Tätigkeiten, die besonderen Garantien und Beschränkungen des Art. 22 DSGVO jedoch nur für letztere.

5.

Zur rechtlichen Bedeutung des Verantwortungsbewusstseins ^

[11]

Hier kann nun an die oben erläuterte ethische Debatte angeknüpft werden. Denn das ausschlaggebende Kriterium, welches gemäß den Ausführungen der Art-29-Datenschutzgruppe über die Anwendbarkeit des Art. 22 DSGVO entscheidet, ist das Ausmaß der menschlichen Einflussnahme.38 Bei der Einbeziehung eines menschlichen Entscheidungsträgers dürfe es sich nicht um eine «symbolische Geste» handeln. Die Person muss über die nötige Änderungskompetenz verfügen.39 Nach Schulz ist es zentral, dass der Mensch eine wahrnehmbare Letztentscheidung trifft.40 Zudem muss die entscheidende Person auch entsprechend instruiert werden und über das notwendige technische Verständnis verfügen, um die Ausgabe des Algorithmus zu überprüfen.41 Buchner betont, dass die Entscheidung des Menschen nicht lediglich formaler Art sein darf. Insbesondere hebt er treffend hervor, dass «die getroffene Entscheidung der Sache nach von einer natürlichen Person (statt einer Maschine) zu verantworten ist»42. Nach Helfrich muss die entscheidende Person daher zumindest zwei mögliche Wahloptionen haben.43

[12]

In Bezugnahme auf den AMS-Algorithmus bedeutet dies, dass die SachbearbeiterInnen auch tatsächlich Letztentscheidungen treffen müssen. Dafür ist es notwendig, dass sie sich ihrer Verantwortung bewusst sind. Sie müssen verstehen, dass es sich beim Output des Algorithmus lediglich um eine Vorauswertung handelt, die Entscheidungskompetenz jedoch gänzlich bei ihnen liegt. Dies müsste auch bewusst und proaktiv in der internen Kultur gelebt werden. Eine bloße Ermutigung, wie dies vom Leiter des AMS zunächst umschrieben wird, wird mE. dafür nicht ausreichen. Wie von Spiekermann in der ethischen Debatte um den AMS-Algorithmus angeführt, tendieren Menschen nämlich dazu, nicht von algorithmischen Bewertungen abzuweichen.44 Handelt es sich nun tatsächlich zwar nicht – wie von ihr im ersten Blogeintrag angedeutet – um eine auswertende KI, so ist es dennoch notwendig, dass die Logik hinter der Auswertung in entsprechenden Schulungen erläutert wird, um sinnvollerweise von dieser abweichen zu können. Dies sollte mangels Einsatzes von komplexen Technologien wie «machine learning» auch tendenziell besser möglich sein.

[13]

Ein Aspekt, der mE. in den Ausführungen zu Art. 22 DSGVO auch erwähnt werden sollte und gerade im Alltagsgeschäft des AMS zu berücksichtigen ist, ist der zeitliche Faktor. Die SachbearbeiterInnen können lediglich dann verantwortungsbewusst handeln, wenn sie auch über ausreichend Ressourcen verfügen. Eine sinnvolle Überprüfung ist nämlich nur möglich, wenn die SachbearbeiterInnen auch faktisch die Zeit haben, konkrete Aspekte der Bewertung herauszugreifen und zu analysieren. Ob diese Ressourcen innerhalb des AMS stets aufgebracht werden können, erscheint angesichts aktueller Medienberichte allerdings fraglich.45 Positiv ist zu sehen, dass Kopf in seinem offenen Brief ausdrücklich erwähnt, dass Umstände normiert werden, unter denen die Entscheidungen jedenfalls korrigiert werden.46 Nach Auskunft eines Mitgliedes des AMS-Strategieausschusses werde gerade geprüft, ob Förderrichtlinien geändert werden sollen. Bis jetzt seien aber noch keine Änderungen beschlossen worden. Auch die Frage, wie die BeraterInnen ihre Verantwortung bei der Ein- und Umstufung wahrnehmen können werden, sei Gegenstand der Diskussion.47 Die entsprechenden Richtlinien sind nach heutigem Stand daher zwar noch nicht umgesetzt, wohl aber in Planung.

6.

Conclusio ^

[14]

Die obigen Ausführungen zeigen, dass Verantwortungsbewusstsein eine entscheidende rechtliche Komponente sein kann. Es ergeben sich zwei Möglichkeiten: entweder die Einflussnahme auf die Entscheidung durch die AMS-SachbearbeiterInnen ist ausreichend48, oder den Betroffenen steht der zusätzliche Schutz nach Art. 22 DSGVO offen.

[15]

In beiden Fällen wäre es sinnvoll, entsprechende Adaptionen in den AMS-Normen vorzusehen. Im ersten Fall wäre das vor allem für MitarbeiterInnen hilfreich, die dadurch konkrete Grundlagen und Anhaltspunkte zum möglichen Abweichen von der Einordnung durch den AMS-Algorithmus hätten. Im zweiten Fall kann dies – abhängig vom einschlägigen Erlaubnistatbestand – sogar erforderlich sein.49

[16]

Es bleibt abzuwarten, wie die entsprechenden Richtlinien adaptiert werden. ME. wäre es aber wünschenswert, wenn das AMS im Sinne der Rechtsprechung des EGMR seine sinngemäße Verantwortung, beim Einsatz dieser neuen Technologie eine «faire Balance»50 zu finden, wahrnimmt, und auch bei Nichtanwendbarkeit des Art. 22 DSGVO, die «Best Practices» der Art-29-Datenschutzgruppe zu Art. 22 DSGVO umsetzt.51 Damit könnte ein hoher Schutzstandard geschaffen werden und Österreich könnte mit gutem Beispiel im komplexen Prozess der verantwortungsbewussten Digitalisierung Europas voranschreiten.

7.

Literatur ^

Artikel-29-Datenschutzgruppe, Leitlinien zu automatisierten Entscheidungen im Einzelfall einschließlich Profiling für die Zwecke der Verordnung 2016/679 (WP251 rev.01).

 

Buchinger, Herbert Stellungnahme an die Gleichbehandlungsanwaltschaft, www.gleichbehandlungsanwaltschaft.gv.at/documents/340065/450375/Schreiben_von_AMS_Bundesgeschäftsstelle_25.04.2019.pdf/ (abgerufen am 31. Oktober 2019), 2019.

 

Cech, Florian/Wagner, Ben im Futurezone-Interview, Der AMS-Algorithmus ist ein «Paradebeispiel für Diskriminierung», Futurezone technology news, www.futurezone.at/netzpolitik/der-ams-algorithmus-ist-ein-paradebeispiel-fuer-diskriminierung/400147421 (aufgerufen am 31.10.2019), 2018.

 

Cech, Florian/Fischer, Fabian/Human, Soheil/Lopez/Wagner, Ben im Futurezone-Interview, Dem AMS-Algorithmus fehlt der Beipackzettel, Futurezone technology news, www.futurezone.at/meinung/dem-ams-algorithmus-fehlt-der-beipackzettel/400636022 (aufgerufen am 31.10.2019), 2019.

 

Datenethikkommission, Gutachten der Datenethikkommission, www.bmi.bund.de/SharedDocs/downloads/DE/publikationen/themen/it-digitalpolitik/gutachten-datenethikkommission.html (aufgerufen am 31. Oktober 2019), 2019

 

Ehrke-Rabel, Tina/Hödl, Elisabeth, Steuerbescheid und behördliches Profiling, Dako 2017/35, S. 59.

 

Eschholz, Stefanie, Big Data-Scoring unter dem Einfluss der Datenschutz-Grundverordnung, DuD 2017, S. 180.

 

Gerhartl, Andreas, Aktuelle Datenschutzfragen in der AMS-Praxis, Dako 2015/22, S. 35.

 

Gerhartl, Andreas, Datenschutz im Arbeitslosenversicherungsrecht, ASoK 2012, S. 21.

 

Gerhartl, Andreas, Förderungen des AMS, ASoK 2016, S. 485.

 

Gesellschaft für Informatik, Technische und rechtliche Betrachtungen algorithmischer Entscheidungsverfahren. Studien und Gutachten im Auftrag des Sachverständigenrats für Verbraucherfragen, Sachverständigenrat für Verbraucherfragen, Brandenburgische Universitätsdruckerei, Berlin 2018.

 

Gierschmann, Sybille/Schlender, Katharina/Stenzel, Rainer/Veil, Winfried, Datenschutz-Grundverordnung, 2. Auflage, Bundesanzeiger Verlag, Köln 2018.

 

Gola, Peter, DS-GVO, 2. Auflage, C.H.BECK, München 2018.

 

Holl, Jürgen/Kernbeiss, Günter/Wagner-Pinter, Michael, Konzeptunterlage Synthesis GmbH: Das AMS-Arbeitsmarktchancen-Modell, AMS-Forschungsnetzwerk, www.forschungsnetzwerk.at/downloadpub/arbeitsmarktchancen_methode_%20dokumentation.pdf. (aufgerufen am 31. Oktober 2019), 2018.

 

Knyrim, Rainer, DatKomm, Manz Verlag, Wien 2019.

 

Kopf, Johannes, Offener Brief an Fr. Prof. Sarah Spiekermann zum Thema Einsatz von KI im AMS, Johannes Kopf, https://www.johanneskopf.at/2019/09/24/offener-brief-fr-prof (aufgerufen am 30.10.2019), 2019.

 

Kopf, Johannes, Der Beipackzettel zum AMS-Algorithmus, Futurezone technology news, www.futurezone.at/meinung/der-beipackzettel-zum-ams-algorithmus/400641347 (aufgerufen am 31.10.2019), 2019.

 

Kühling, Jürgen/Buchner, Benedikt, DS-GVO/BDSG, 2. Auflage, C.H.BECK, München 2018.

 

Lachmayer, Konrad, Effizienz als Verfassungsprinzip – eine Maxime für staatliches Handeln in Österreich? In: Bungenberg (Hrsg.): Recht und Ökonomik, 44. Assistententagung des öffentlichen Rechts Jena 2004, C. H. Beck, München 2004, S. 135–160.

 

Rath, Matthias/Krotz, Friedrich/Karmasin, Matthias, Maschinenethik, Springer Verlag, Wiesbaden 2019.

 

Spiekermann, Sarah, Warum das AMS keine KI auf österreichische Bürger loslassen sollte, Der Standard, www.derstandard.at/story/2000108890110/warum-das-ams-keine-ki-auf-oesterreichische-buerger-loslassen-sollte (aufgerufen am 31.10.2019), 2019.

 

Sydow, Gernot, Europäische Datenschutzgrundverordnung, 2. Auflage, Nomos Verlag, Baden-Baden 2018.

 

Taeger, Jürgen, Verbot des Profiling nach Art 22 DS-GVO und die Regulierung des Scoring ab Mai 2018, RDV 2017/1, S. 3.

  1. 1 Holl/Kernbeiss/Wagner-Pinter, Konzeptunterlage Synthesis GmbH: Das AMS-Arbeitsmarktchancen-Modell, AMS-Forschungsnetzwerk, www.forschungsnetzwerk.at/downloadpub/arbeitsmarktchancen_methode_%20dokumentation.pdf. (aufgerufen am 31. Oktober 2019), 2018.
  2. 2 Ibidem; zu den möglichen Beihilfen und Förderungen: Gerhartl, Förderungen des AMS, ASoK 2016, 485.
  3. 3 Ausführungen der deutschen Datenethikkommission zufolge erscheint der Einsatz derartiger algorithmischer Systeme vor dem Hintergrund des Effizienzgebots in der öffentlichen Verwaltung zukünftig uU. sogar geboten, siehe Datenethikkommission, Gutachten der Datenethikkommission, www.bmi.bund.de/SharedDocs/downloads/DE/publikationen/themen/it-digitalpolitik/gutachten-datenethikkommission.html (aufgerufen am 31. Oktober 2019), 2019, 214; zum Effizienzprinzip in Österreich siehe: Lachmayer, Effizienz als Verfassungsprinzip – eine Maxime für staatliches Handeln in Österreich? In: Bungenberg (Hrsg.): Recht und Ökonomik, 44. Assistententagung des öffentlichen Rechts Jena 2004, C. H. Beck, München 2004, S. 135–160.
  4. 4 Holl/Kernbeiss/Wagner-Pinter, Konzeptunterlage Synthesis GmbH: Das AMS-Arbeitsmarktchancen-Modell, AMS-Forschungsnetzwerk, www.forschungsnetzwerk.at/downloadpub/arbeitsmarktchancen_methode_%20dokumentation.pdf. (aufgerufen am 31. Oktober 2019), 2018; siehe auch: Buchinger, Stellungnahme an die Gleichbehandlungsanwaltschaft, www.gleichbehandlungsanwaltschaft.gv.at/documents/340065/450375/Schreiben_von_AMS_Bundesgeschäftsstelle_25.04.2019.pdf/ (abgerufen am 31. Oktober 2019), 2019.
  5. 5 Wagner im Futurezone-Interview, Der AMS-Algorithmus ist ein «Paradebeispiel für Diskriminierung», Futurezone technology news, www.futurezone.at/netzpolitik/der-ams-algorithmus-ist-ein-paradebeispiel-fuer-diskriminierung/400147421 (aufgerufen am 31.10.2019), 2018.
  6. 6 Cech im Futurezone-Interview, Der AMS-Algorithmus ist ein «Paradebeispiel für Diskriminierung», Futurezone technology news, www.futurezone.at/netzpolitik/der-ams-algorithmus-ist-ein-paradebeispiel-fuer-diskriminierung/400147421 (aufgerufen am 31.10.2019), 2018.
  7. 7 Zu den Grundsatzfragen der Algorithmenethik vgl. Rath/Krotz/Karmasin, Maschinenethik, Springer Verlag, Wiesbaden 2019.
  8. 8 Vgl. Spiekermann, Warum das AMS keine KI auf österreichische Bürger loslassen sollte, Der Standard, www.derstandard.at/story/2000108890110/warum-das-ams-keine-ki-auf-oesterreichische-buerger-loslassen-sollte (aufgerufen am 31.10.2019), 2019.
  9. 9 Kopf, Offener Brief an Fr. Prof. Sarah Spiekermann zum Thema Einsatz von KI im AMS, Johannes Kopf, https://www.johanneskopf.at/2019/09/24/offener-brief-fr-prof (aufgerufen am 30.10.2019), 2019.
  10. 10 Spiekermann, Warum das AMS keine KI auf österreichische Bürger loslassen sollte, Der Standard, www.derstandard.at/story/2000108890110/warum-das-ams-keine-ki-auf-oesterreichische-buerger-loslassen-sollte (aufgerufen am 31.10.2019), 2019.
  11. 11 Ibidem.
  12. 12 Verordnung (EU) 2016/679 des Europäischen Parlaments und des Rates vom 27. April 2016 zum Schutz natürlicher Personen bei der Verarbeitung personenbezogener Daten, zum freien Datenverkehr und zur Aufhebung der Richtlinie 95/46/EG (Datenschutz-Grundverordnung), ABl. L 2016/119, 1.
  13. 13 Eschholz, Big Data-Scoring unter dem Einfluss der Datenschutz-Grundverordnung, DuD 2017, S. 180; Gesellschaft für Informatik, Technische und rechtliche Betrachtungen algorithmischer Entscheidungsverfahren. Studien und Gutachten im Auftrag des Sachverständigenrats für Verbraucherfragen, Sachverständigenrat für Verbraucherfragen, Brandenburgische Universitätsdruckerei, Berlin 2018; Taeger, Verbot des Profiling nach Art 22 DS-GVO und die Regulierung des Scoring ab Mai 2018, RDV 2017/1.
  14. 14 Schulz in Gola, DS-GVO, 2. Auflage, C.H.BECK, München 2018, Art 22 Rz 1f.
  15. 15 Hiezu mehr in Punkt 4.
  16. 16 Art. 22 Abs. 2 lit. a DSGVO.
  17. 17 Art. 22 Abs. 2 lit. b DSGVO.
  18. 18 Art. 22 Abs. 2 lit. c DSGVO.
  19. 19 Art. 6 Abs. 1 lit. f DSGVO.
  20. 20 Art. 9 Abs. 1 DSGVO.
  21. 21 Art. 22 Abs. 4 DSGVO.
  22. 22 Art. 13 Abs. 2 f DSGVO.
  23. 23 Art. 22 Abs. 3, 4 DSGVO.
  24. 24 Bundesgesetz über das Arbeitsmarktservice (Arbeitsmarktservicegesetz – AMSG) BGBl I 1994/313 idF BGBl I 2018/100.
  25. 25 Arbeitsmarktservice, Datenschutzbestimmungen für KundInnen, www.ams.at/content/dam/download/allgemeine-informationen/001_Datenschutz_SFA_AMS_bfrei.pdf (aufgerufen am 31.10.2019); dazu auch: Gerhartl, Aktuelle Datenschutzfragen in der AMS-Praxis, Dako 2015/22, S. 35; Gerhartl, Datenschutz im Arbeitslosenversicherungsrecht, ASoK 2012, S. 21; an dieser Stelle sei allerdings angemerkt, dass das Projekt zum AMS-Algorithmus nicht auf Leistungen aus der Arbeitslosenversicherung abzielt.
  26. 26 Dazu unten näher.
  27. 27 Zur Frage der Notwendigkeit einer gesetzlichen Verankerung von Profiling im öffentlichen Sektor siehe aber: Ehrke-Rabel/Hödl, Steuerbescheid und behördliches Profiling, Dako 2017/35, S. 59 (S. 60).
  28. 28 Arg.: ErwGr. 71 Abs. 1 DSGVO: «In jedem Fall sollte eine solche Verarbeitung mit angemessenen Garantien verbunden sein, einschließlich der spezifischen Unterrichtung der betroffenen Person und des Anspruchs auf direktes Eingreifen einer Person, auf Darlegung des eigenen Standpunkts, auf Erläuterung der nach einer entsprechenden Bewertung getroffenen Entscheidung sowie des Rechts auf Anfechtung der Entscheidung.» Nach dem Wortlaut des Erwägungsgrundes sind diese Maßnahmen daher jedenfalls vorzusehen; vgl. auch Helfrich in Sydow, Europäische Datenschutzgrundverordnung, 2. Auflage, Nomos Verlag, Baden-Baden 2018, Art. 22 Rz. 62; Veil in Gierschmann/Schlender/Stenzel/Veil, Datenschutz-Grundverordnung, 2. Auflage, Bundesanzeiger Verlag, Köln 2018, Art. 22 Rz. 82.
  29. 29 Artikel-29-Datenschutzgruppe, Leitlinien zu automatisierten Entscheidungen im Einzelfall einschließlich Profiling für die Zwecke der Verordnung 2016/679 (WP251 rev.01) S. 30.
  30. 30 Cech/Fischer/Human/Lopez/Wagner im Futurezone-Interview, Dem AMS-Algorithmus fehlt der Beipackzettel, Futurezone technology news, www.futurezone.at/meinung/dem-ams-algorithmus-fehlt-der-beipackzettel/400636022 (aufgerufen am 31.10.2019), 2019.
  31. 31 Art. 4 Z. 4 DSGVO; ErwGr. 71 DSGVO; Schulz in Gola, DS-GVO, 2. Auflage, C.H.BECK, München 2018, Art. 22 Rz. 9, 20.
  32. 32 Die Kommentarliteratur spricht exemplarisch von der Versagung staatlicher Transferleistungen, siehe Haidinger in Knyrim, Dat-Komm, Manz Verlag, Wien 2019, Art. 22 DSGVO Rz. 26; die rechtliche (im Gegensatz zur rein wirtschaftlichen) Wirkung könnte mangels Anspruchs in Frage gestellt werden; jedenfalls liegt aber eine erhebliche Beeinträchtigung iSd. Art. 22 Abs. 1 vor, da das Prozedere mehrere von der Art-29-Datenschutzgruppe geforderte Kriterien erfüllt: Die betroffene Person kann in Hinblick auf den Zugang zu Arbeitsplätzen sowie Weiterbildungen durch einen längeren Zeitraum beeinträchtigt sein und die Entscheidung kann zum Ausschluss und zur Diskriminierung führen; siehe Artikel-29-Datenschutzgruppe, Leitlinien zu automatisierten Entscheidungen im Einzelfall einschließlich Profiling für die Zwecke der Verordnung 2016/679 (WP251 rev.01) S. 23.
  33. 33 Kopf, Offener Brief an Fr. Prof. Sarah Spiekermann zum Thema Einsatz von KI im AMS, Johannes Kopf, https://www.johanneskopf. at/2019/09/24/offener-brief-fr-prof (aufgerufen am 30.10.2019), 2019.
  34. 34 Ibidem.
  35. 35 Haidinger in Knyrim, DatKomm, Manz Verlag, Wien 2019, Art. 22 DSGVO Rz. 25 mVa. Schulz in Gola, DS-GVO, 2. Auflage, C.H.BECK, München 2018, Art. 22 Rz. 13; Buchner in Kühling/Buchner, DS-GVO/BDSG, 2. Auflage, C.H.BECK, München 2018, Art. 22 Rz. 16.
  36. 36 Ibidem.
  37. 37 Artikel-29-Datenschutzgruppe, Leitlinien zu automatisierten Entscheidungen im Einzelfall einschließlich Profiling für die Zwecke der Verordnung 2016/679 (WP251 rev.01) S. 9.
  38. 38 Artikel-29-Datenschutzgruppe, Leitlinien zu automatisierten Entscheidungen im Einzelfall einschließlich Profiling für die Zwecke der Verordnung 2016/679 (WP251 rev.01) S. 22; Haidinger in Knyrim, DatKomm, Manz Verlag, Wien 2019, Art. 22 DSGVO Rz. 23.
  39. 39 Ibidem.
  40. 40 Schulz in Gola, DS-GVO, 2. Auflage, C.H.BECK, München 2018, Art. 22 Rz. 14.
  41. 41 Schulz in Gola, DS-GVO, 2. Auflage, C.H.BECK, München 2018, Art. 22 Rz. 16.
  42. 42 Buchner in Kühling/Buchner, DS-GVO/BDSG, 2. Auflage, C.H.BECK, München 2018, Art. 22 Rz. 16.
  43. 43 Helfrich in Sydow, Europäische Datenschutzgrundverordnung, 2. Auflage, Nomos Verlag, Baden-Baden 2018, Art. 22 Rz. 43.
  44. 44 Vgl Spiekermann, Warum das AMS keine KI auf österreichische Bürger loslassen sollte, Der Standard, www.derstandard.at/story/2000108890110/warum-das-ams-keine-ki-auf-oesterreichische-buerger-loslassen-sollte (aufgerufen am 31.10.2019), 2019.
  45. 45 Algorithmus-Panne und Ruf nach mehr Personal beim AMS, Der Standard, www.derstandard.at/story/2000110155404/algorithmuspanne-und-ruf-nach-mehr-personal-beim-ams (aufgerufen am 31.10.2019), 2019.
  46. 46 Kopf, Offener Brief an Fr. Prof. Sarah Spiekermann zum Thema Einsatz von KI im AMS, Johannes Kopf, https://www.johanneskopf.at/2019/09/24/offener-brief-fr-prof (aufgerufen am 30.10.2019), 2019.
  47. 47 Auskunft gegenüber dem Autor von Mag. Severin Gruber, LL.M., Mitglied des AMS-Strategiesausschusses, am 30.10.2019, Wien.
  48. 48 «Ausreichende» Einflussnahme zu messen gestaltet sich dabei schwierig; die Anzahl an Fällen, in denen tatsächlich von der maschinellen Empfehlung abgewichen wurde, kann dabei maximal ein Indiz sein; die Beweislast liegt allerdings aufgrund der Rechenschaftspflicht iSd Art 5 Abs 2 DSGVO beim Verantwortlichen (AMS); vgl. Schulz in Gola, DS-GVO, 2. Auflage, C.H.BECK, München 2018, Art. 5 Rz 34.
  49. 49 Siehe Ausführungen zu «angemessenen Maßnahmen» iSd Art. 22 Abs. 2 lit. b.
  50. 50 ISv. EGMR, 4.12.2008, 30562/04, S. and Marper v United Kingdom Rz. 112.
  51. 51 Artikel-29-Datenschutzgruppe, Leitlinien zu automatisierten Entscheidungen im Einzelfall einschließlich Profiling für die Zwecke der Verordnung 2016/679 (WP251 rev.01) S. 35; Dies scheint in Bezug auf die Offenlegung der involvierten Logik vom AMS angestrebt zu werden, vgl. Kopf, Der Beipackzettel zum AMS-Algorithmus, Futurezone technology news, www.futurezone.at/meinung/der-beipackzettel-zum-ams-algorithmus/400641347 (aufgerufen am 31.10.2019), 2019.