Jusletter IT

Legal Tech im Richterzimmer?

Streiflichter aus Wissenschaft und Praxis zum KI-Einsatz bei Flugverspätungen

  • Authors: Andreas Sesing-Wagenpfeil / Matthias Biniok / Felix Kares / Lena Kästner / Markus Langer / Christian Metz / Tatyana V. Peshteryanu / Ulla Wessels
  • Category of articles: E-Justice
  • Region: Germany
  • Field of law: E-Justice
  • Collection: Conference proceedings IRIS 2023
  • DOI: 10.38023/55a13b1b-c9e4-470d-8ac8-13455a4e23fd
  • Citation: Andreas Sesing-Wagenpfeil / Matthias Biniok / Felix Kares / Lena Kästner / Markus Langer / Christian Metz / Tatyana V. Peshteryanu / Ulla Wessels, Legal Tech im Richterzimmer?, in: Jusletter IT 30 March 2023
Deutsche Amtsgerichte im Einzugsgebiet von Großflughäfen ächzen unter der Klagelast wegen Flugverspätungen. Während es für LegalTech-Anbieter ein Leichtes ist, mithilfe von automatisierten Systemen die voraussichtliche Begründetheit einer Flugverspätungsklage vorherzusagen und eine entsprechende Klage zu erheben, entscheiden Richterinnen und Richter der betroffenen Amtsgerichte – schon von Gesetzes wegen – durch „manuelle“ Prüfung. Der Begriff der „Waffengleichheit im Zivilprozess“ bekommt hierdurch eine völlig neue Facette: In Frage steht nicht die formelle Gleichheit von Klägerin und Beklagtem; in Frage steht vielmehr die technologische Gleichheit von Parteien und Gericht. Der Beitrag führt Wissenschaft und Praxis am Beispiel des KI-Einsatzes bei Flugverspätungsklagen zusammen und zeigt auf, dass der Einsatz von KI in der Ziviljustiz gleichermaßen Chancen und Risiken birgt.

Inhaltsverzeichnis

  • 1. Einführung
  • 2. Materiell-rechtliche Ausgangslage für Verspätungsentschädigungen
  • 3. Der technische Ansatz: Das Entscheidungsunterstützungssystem „FRAUKE“
  • 4. Risiken und Nebenwirkungen aus psychologischer Sicht
  • 4.1. Ankereffekte
  • 4.2. Über- und Untervertrauen
  • 4.3. Hindsight Bias
  • 4.4. Zwischenfazit
  • 5. Was sagt die Philosophie: Sollte der Einsatz von KI in der Justiz zulässig sein?
  • 5.1. Richterliche Reflexion und die Gefahr der ex post-Rationalisierung
  • 5.2. Die Notwendigkeit empirischer Untersuchungen
  • 5.3. Zwischenfazit
  • 6. Grundlegende rechtliche Anforderungen an KI in der Justiz
  • 6.1. Verfassungsrecht: Menschliche und unabhängige Richterinnen und Richter
  • 6.2. Anforderungen an die Pflicht zur Urteilsbegründung
  • 6.3. Ausblick: Der Entwurf eines KI-Gesetzes
  • 7. Zusammenfassung
  • 8. Literatur

Hinweis: Das vorliegende Manuskript ist – soweit es die Beiträge der Autorinnen Kästner und Wessels sowie der Autoren Kares, Langer und Sesing-Wagenpfeil betrifft – im Rahmen des von der Volkswagen Stiftung geförderten Projekts „Explainable Intelligent Systems (EIS)“ (AZ 9B 830; AZ 98 511–98 513) entstanden. Zudem wurde die Arbeit des Autoren Langer unterstützt durch den DFG grant 389792660 als Teil des Sonderforschungsbereichs 248 „Grundlagen verständlicher Software-Systeme“. Im Übrigen gibt der Beitrag – ungeachtet einer dienstlichen Befassung – ausschließlich die persönliche Auffassung der Autorin Peshteryanu sowie der Autoren Biniok und Metz wieder.

1.

Einführung ^

[1]

Gerichtliche Massenverfahren in gleichgelagerten Fallgestaltungen nehmen in jüngerer Zeit drastisch zu. Ein Umstand, der zu dieser Entwicklung beiträgt, ist der Einsatz von LegalTech-Systemen: Hierauf spezialisierte Diensteanbieter prüfen anhand einfacher Kurz-Fragebögen, ob Rechtsuchenden Ansprüche gegen Fluggesellschaften wegen Flugverspätungen,1 gegen Automobilhersteller wegen der Manipulation von Diesel-Abgaswerten2 oder gegen Wohnungsgesellschaften wegen gesetzwidrig überhöhter Mietpreise3 zustehen.

[2]

Die Anbieter – häufig Inkassounternehmen – bewegen sich dabei in Deutschland seit der Grundsatzentscheidung „wenigermiete.de“ des Bundesgerichtshofs vom 27.11.2019 im zulässigen Rahmen, da der Einsatz von LegalTech-Instrumenten, auch gepaart mit der in der Branche üblichen Vereinbarung von Erfolgshonoraren, mit den Vorgaben des Rechtsdienstleistungsgesetzes im Einklang steht.4

[3]

Demgegenüber kann und darf die Justiz nicht mit gleichen Waffen zurückschlagen: Richterinnen und Richter sind (auch) von Gesetzes wegen als menschliche Wesen aus Fleisch und Blut konzipiert, die Ersetzung durch bloße „Subsumtionsautomaten“ ist daher (noch) eher Dystopie als ein kurzfristig bevorstehendes, realistisches Szenario. Dies führt dazu, dass etwa alle beim Amtsgericht Frankfurt am Main – das Gericht ist aufgrund des Erfüllungsorts (§ 29 ZPO) zuständiges Gericht für verspätete Flüge mit Abflug- oder Ankunftsort Frankfurt5 – eingehenden Klagen wegen verspäteter oder annullierter Flüge bis auf weiteres „manuell“ bearbeitet werden müssen. Der hiermit verbundene Arbeitsaufwand ist immens: So wurden am Amtsgericht Frankfurt am Main in den Spitzenjahren 2019 und 2020 allein ca. 15.000 Verfahren in Reisesachen anhängig gemacht, denen – gemessen an ihren Arbeitskraftanteilen – rund 40 Richterinnen und Richter gegenüberstanden.6 Rechnerisch betrachtet müssen damit – auf eine volle Richterstelle bezogen – etwa 30 zusätzliche Streitverfahren pro Monat einer (streitigen) Entscheidung zugeführt werden, wobei im gesamten Verfahrensgang mit jeder Entscheidung auch das nichtrichterliche Personal (z.B. Serviceeinheiten, Schreibkräfte, Kostenbeamte usw.) gebunden wird.

[4]

Der Bedarf zur Effizienzsteigerung durch den Einsatz von geeigneten (technischen) Werkzeugen in der Justiz ist damit mehr als offensichtlich, vereinzelt werden entsprechende Systeme in Deutschland bereits erprobt. Ein Beispiel hierfür ist der „Frankfurter Urteils-Konfigurator, elektronisch“ – kurz: „FRAUKE“ –, der bei der Urteilsbegründung in Flugverspätungsfällen zur Unterstützung zum Einsatz kommen soll. Aber auch in anderen Bereichen der Jurisprudenz hat die Automatisierung unlängst Einzug erhalten: So hilft etwa die „Frankfurter regelbasierte intelligente Dokumentenerstellungs-Assistent*in“ – kurz: „FRIDA“ – bei der Erstellung von Protokollen und Urteilen in Bußgeldsachen. Ein weiteres Beispiel ist der IBM-Massenverfahrensassistent, der seit November 2022 operativ am Oberlandesgericht Stuttgart zur effizienten Bearbeitung von Dieselabgasverfahren eingesetzt wird.7

[5]

Der nachfolgende Beitrag bietet einen interdisziplinären Überblick über die Herausforderungen für die Justiz, die aus dem massenhaften Anfall von Klagen erwachsen. Rechtlich orientieren sich die Ausführungen dabei fallstudienartig an den rechtlichen und tatsächlichen Gegebenheiten bei der Bearbeitung von Klagen wegen Flugverspätungen. Dabei werden zunächst die für das Anwendungsbeispiel der Flugverspätungsentschädigung die einschlägigen materiell-rechtlichen Grundlagen (2.) und sodann das am Amtsgericht Frankfurt erprobte Entscheidungsunterstützungssystem „FRAUKE“ (3.) dargestellt. Im Anschluss an die Beleuchtung von „Risiken und Nebenwirkungen“ von KI im Entscheidungsfindungsprozess aus psychologischer Sicht (4.) und mögliche Vorbehalte der Philosophie (5.) werden abschließend einige Anforderungen an derartige Systeme aus rechtlicher Sicht formuliert (6.).

2.

Materiell-rechtliche Ausgangslage für Verspätungsentschädigungen ^

[6]

Die materiell-rechtliche Ausgangslage für Klagen, mit denen Fluggäste Verspätungsentschädigungen von Luftfahrtunternehmen verlangen, ist durchaus überschaubar: Zentrale Grundlage ist in der Europäischen Union die Fluggastrechte-Verordnung (FGVO),8 nach der im Fall von Flugverspätungen pauschalierte Ersatzansprüche bestehen.9 Die Verordnung unterscheidet im Grundsatz drei verschiedene Leistungsstörungstatbestände, namentlich die Nichtbeförderung eines Fluggastes (Art. 4 FGVO), die Annullierung eines Fluges (Art. 5 FGVO) sowie eine erhebliche Abflugverspätung (Art. 6 FGVO). Luftfahrtunternehmen werden sodann – abhängig vom jeweils erfüllten Leistungsstörungstatbestand – zu Ausgleichszahlungen (Art. 7 FGVO), zu Erstattung oder Ersatzbeförderung (Art. 8 FGVO) sowie zur Erbringung von Betreuungsleistungen wie z.B. Mahlzeitengestellung oder Hotelunterbringung (Art. 9 FGVO) verpflichtet.

[7]

Insoweit sieht Art. 7 FGVO eine von der Länge der Flugstrecke abhängige, pauschalierte Ausgleichszahlung vor, die allerdings – jedenfalls nach dem Wortlaut der Verordnung – ausschließlich im Fall der Nichtbeförderung und der Annullierung eines Fluges zu zahlen ist. Für den Fall einer Abflugverspätung (Art. 6 FGVO) ist eine vergleichbare Entschädigung nicht vorgesehen, im Fall einer bloßen Ankunftsverspätung ohne Flugannullierung sieht die Verordnung grundsätzlich ebenfalls keine Entschädigungszahlungen vor. Nach der Rechtsprechung des EuGH in der grundlegenden „Sturgeon“-Entscheidung vom 19.11.2009 ist jedoch die Verordnung dahin auszulegen, dass der in Art. 7 FGVO vorgesehene Ausgleichsanspruch auch dann besteht, wenn Fluggäste wegen eines verspäteten Fluges einen Zeitverlust von drei Stunden oder mehr erleiden, mithin eine erhebliche Ankunftsverspätung vorliegt.10

[8]

Auf diesen Anspruch findet allerdings nach der Rechtsprechung des EuGH der in Art. 5 Abs. 3 FGVO geregelte Anspruchsausschluss entsprechende Anwendung, wonach ein ausführendes Luftfahrtunternehmen nicht verpflichtet ist, Ausgleichszahlungen nach Art. 7 FGVO zu leisten, wenn es nachweisen kann, dass die Annullierung auf außergewöhnliche Umstände zurückgeht, die sich auch dann nicht hätten vermeiden lassen, wenn alle zumutbaren Maßnahmen ergriffen worden wären.11 Die außergewöhnlichen Umstände lassen sich dabei in unterschiedlichen Fallgruppen zusammenfassen; als taugliche Gründe für einen Anspruchsausschluss anerkannt sind etwa extreme Wetterereignisse,12 Terrorangriffe13 und politische Instabilität,14 die Einordnung von Streik ist im Einzelfall umstritten;15 technische Defekte hingegen fallen regelmäßig in die Risikosphäre des Luftfahrtunternehmens.16

[9]

Zusammengefasst setzt damit das Bestehen eines Entschädigungsanspruchs wegen einer Ankunftsverspätung einerseits eine Ankunftsverspätung am Zielort von mindestens drei Stunden voraus, und andererseits darf diese Verspätung nicht auf außergewöhnliche Umstände zurückgehen, die durch das Luftfahrtunternehmen nicht zumutbar hätten vermieden werden können.

[10]

Automatisierungslösungen – neben den bereits erwähnten LegalTech-Angeboten nicht zuletzt auch das sogleich vorgestellte System „FRAUKE“ – machen sich dabei die einfache Formalisierbarkeit und den vergleichsweise geringen Subsumtionsaufwand zunutze. Aus denselben Gründen wird in der Literatur mitunter gar erwogen, Entschädigungszahlungen wegen Flugverspätungen mithilfe selbstvollziehender Verträge („smart contracts“) zu automatisieren.17

3.

Der technische Ansatz: Das Entscheidungsunterstützungssystem „FRAUKE“ ^

[11]

Das System „FRAUKE“ unterstützt, wie eingangs erwähnt, die Richterschaft bei der Erstellung von Urteilen im Bereich der Fluggastrechte. Aus technischer Sicht besteht das System aus zwei Kernkomponenten: Einem KI-Modell zur automatischen Extraktion von relevanten Falldaten und einem Vorschlagsalgorithmus für zum Urteil passenden Textbausteinen. Dazu ist von Seiten des Endnutzers eine Reihe von Angaben erforderlich, wozu insbesondere die Urteilsformel, der Tenor des Urteils, gehört (vgl. Abbildung 1). Auch die in der konkreten Akte maßgebliche Fallgruppe für einen möglichen Anspruchsausschluss ist auszuwählen18 – z.B. „Wetterphänomene“, wenn es im zu bearbeitenden Fall um eine Flugverspätung aufgrund schlechter Wetterbedingungen geht.19 Das System selbst schlägt kein Urteil vor, sondern liefert lediglich Textbausteinvorschläge passend zur richterlichen Entscheidung.

Abbildung 1: Eingabemaske des Systems FRAUKE

[12]

Nach Eingabe der Parameter wird in der momentanen Ausbaustufe des Systems die Klageschrift von einem sogenannten Named-Entity-Recognition Modell (NER-Modell) analysiert, welches auf der IBM Watson Technologie für natürliches Sprachverständnis basiert. Das Modell beruht auf einem vortrainierten Basismodell, welches mittels Labeling von entsprechenden Trainingsdokumenten auf die Domänensprache angepasst wird. Es ist dadurch in der Lage, die für den Fall relevanten Informationen, wie z.B. Start- und Zielflughafen, die Flugentfernung sowie den Streitwert, kontextabhängig zu extrahieren und die Semantik zu berücksichtigen. Auch komplizierte Zusammenhänge wie Beziehungen zwischen den Entitäten können antrainiert werden. Das Training erfolgt mittels des Programms IBM Watson Knowledge Studio (WKS), welches eine No-Code Benutzeroberfläche zur Verfügung stellt. Das gesamte Modell-Management über Training, Testung und Evaluierung der Modellperformance wird mit WKS durchgeführt, bis die gewünschte Genauigkeit erreicht ist. Das Programm ermöglicht durchgehend die Einsicht in die dem Modell zugrunde liegenden, gelabelten Daten (die sogenannte Ground-Truth), wodurch die Modell-Ergebnisse zu jeder Zeit nachvollzogen und überprüft werden können. Die Qualität der Trainingsdaten wird dabei im Vorfeld durch die Auswahl repräsentativer Dokumente sichergestellt. Die Bereitstellung des Modells zur Analyse erfolgt über eine REST-API Schnittstelle.

[13]

Zeitgleich zur Textanalyse durch das KI-Modell erfolgt die regelbasierte Auswahl der passenden Textbausteine zum Urteil. Die Textbausteine basieren auf vergangen Urteilen und wurden durch die Frankfurter Richterschaft zur Verfügung gestellt. Im weiteren Projektausbau und bei komplexeren Fallkategorien und Parameterkonstellationen kann der regelbasierte Algorithmus durch einen KI-basierten Vorschlag ersetzt werden. Dies ermöglicht eine höhere Komplexität der Fallkonstellationen und zudem einen „Human-In-The-Loop“-Ansatz, bei dem das System durch eine Bewertung der Textbausteinvorschläge durch den Nutzenden ständig mitlernt.

[14]

Basierend auf den Textbausteinvorschlägen und den extrahierten Falldaten öffnet sich nach der Analyse das eigentliche Bearbeitungsfenster, welches in Abbildung 2 dargestellt ist. Die extrahierten Falldaten sind bereits in den Textbausteinen hinterlegt. Über das Zauberstab-Symbol lassen sich weitere, zum jeweiligen Abschnitt passende Textbausteine anzeigen. Dies ist insbesondere bei der Individualisierung der Entscheidungsgründe hilfreich. Dadurch wird das Auffinden von passenden Textbausteinen aus vorhandenen Quellen – wie zum Beispiel einer persönlichen Textbausteinsammlung – sehr erleichtert. Jegliches Feld ist außerdem frei editierbar und ermöglicht somit die Finalisierung des Urteils.

Abbildung 2: Bearbeitungsfenster von FRAUKE

[15]

Die Datengrundlage der Textbausteine kann sich aus verschiedensten Quellen speisen: Aus persönlichen Sammlungen einzelner Richterinnen und Richter, aus kollaborativ erstellten Sammlungen oder aus einer systematischen Analyse bereits erlassener Urteile. Dadurch kann auch eine Harmonisierung der Rechtsprechung erfolgen und schneller auf sich änderndes Recht reagiert werden, indem die Textbausteine und der Vorschlagsalgorithmus angepasst werden. Um die Qualität der Daten zu gewährleisten, wird dabei eng mit der Richterschaft zusammengearbeitet.

[16]

Basierend auf dieser Funktionalität kann das System dank offener Schnittstellen in einer weiteren Ausbaustufe an die bestehenden Verschriftungssysteme angeschlossen und in die Geschäftsprozesse integriert werden. Denkbar ist auch eine zyklische Integration neuer Daten zur kontinuierlichen Verbesserung des Systems.

4.

Risiken und Nebenwirkungen aus psychologischer Sicht ^

[17]

Algorithmische Entscheidungsunterstützungssysteme wie FRAUKE haben zum Ziel, Teile von Entscheidungsprozessen zu automatisieren und somit Entscheiderinnen und Entscheider in ihrer Aufgabenerfüllung zu unterstützen. Unabhängig von den technischen Grundlagen des Systems (z.B. händisch programmiert oder auf Methoden des maschinellen Lernens basierend) gibt es eine schier unbegrenzte Zahl an Möglichkeiten, welche Aufgaben solche Systeme unterstützen könnten: Die Extraktion von wichtigen Informationen aus unübersichtlichem Datenmaterial, um die Informationen für Menschen greifbar zu machen, das Unterbreiten von Entscheidungsvorschlägen oder das selbstständige Treffen von Entscheidungen seien hier genannt.20 Auch die Zusammenarbeit von Mensch und System unterliegt einer Vielzahl an Gestaltungsmöglichkeiten, die sich auf einem Kontinuum zwischen vollständiger menschlicher Kontrolle bis hin zur vollen Automatisierung von Prozessen erstrecken. Systeme könnten Menschen zusätzliche Informationen darbieten, System und Mensch könnten parallel an Aufgaben arbeiten oder Entscheidungen treffen, die am Ende zusammengeführt werden, Systeme könnten Entscheidungsalternativen anbieten, aus denen Menschen auswählen, oder Menschen könnten nur noch dazu da sein zu überprüfen, ob Systementscheidungen „in Ordnung“ sind.21 In anderen Worten: die Entwicklung und Implementierung algorithmischer Entscheidungsunterstützungssysteme unterliegt einer Vielzahl an Designentscheidungen, die weitreichende Implikationen haben können.

[18]

Designentscheidungen bei der Entwicklung und Implementierung von Systemen sollten – neben grundlegenden Fragen der Rechtskonformität oder der eigentlichen Güte und Nutzbarkeit des Systems – auch im Hinblick auf mögliche psychologische Risiken beim Einsatz getroffen werden. Auf alle möglichen Risiken einzugehen ist hier aus Platzgründen nicht möglich. Wir möchten daher nur auf einige Risiken beispielhaft eingehen: Ankereffekte, Über- und Untervertrauen sowie Hindsight Bias.

4.1.

Ankereffekte ^

[19]

Systemoutputs können als sog. Anker wirken, die menschliche Entscheidungen in eine gewisse Richtung beeinflussen und teils wie Fremdbestimmung anmuten können. Ankereffekte wurden in der Rechtsprechung beispielsweise von Englich u.a. nachgewiesen, die zeigten, dass auch erfahrene Richterinnen und Richter allein durch die vorausgehende Präsentation von zufälligen Zahlen in der Bestimmung von Strafmaßen beeinflusst sind.22 Systemoutputs können eine ähnliche Wirkung haben. Ein Beispiel stellt der amerikanische COMPAS-Algorithmus dar. Dieser gibt die Gefahr für Rückfälligkeit bei Straftätern als Zahl an. Dieses Vorgehen kann einen Ankereffekt nach sich ziehen, bei dem sich Beteiligte selbst bei unrealistisch scheinenden Werten übermäßig an vorgegebenen Zahlen orientieren. Weil diese Outputs von einem System stammen, das eine dritte Partei entwickelt hat, besteht die Gefahr der Fremdbestimmung und Einflussnahme auf die Rechtsprechung.

[20]

Im Fall von FRAUKE könnte das Liefern von Begründungen durch das System, je nach seiner genauen Beschaffenheit und Implementierung, dazu verleiten, nicht oder weniger eigenständig über andere mögliche Urteilsbegründungen nachzudenken, als man es ohne Unterstützungssystem getan hätte. Insbesondere eine zu schematische Beschreibung von bestimmten Fallgruppen (z.B. „technischer Defekt“, „Streik“) in vorgefertigten Textbausteinen könnte Richterinnen und Richter dazu verleiten, die zugrunde liegenden Erwägungen im Einzelfall nicht ausreichend zu hinterfragen und Besonderheiten des Einzelfalles zu übergehen.

4.2.

Über- und Untervertrauen ^

[21]

Ähnliche Effekte können beim Thema Übervertrauen erwartet werden. Übervertrauen bedeutet, dass Menschen sich zu stark auf Systeme verlassen, die ihrerseits jedoch fehlerbehaftet sein können. Übervertrauen wird beispielsweise auch im Entwurf eines KI-Gesetzes (AI Act) der Europäischen Kommission vom 21.4.202123 unter dem Namen „Automation Bias“ als Risiko hervorgehoben.24 Das Risiko besteht darin, dass inkorrekte Systemoutputs unerkannt bleiben, wodurch menschliche Entscheidungen unter Zuhilfenahme eines Systems schlechter ausfallen, als sie es ohne das System wären. Außerdem können so zusätzliche Anstrengungen erforderlich werden, um mangelhafte Entscheidungen aufzudecken und deren Konsequenzen zu beheben. Übervertrauen untergräbt damit die erhoffte Risikominimierung durch eine menschliche Aufsicht von automatisierten Systemen („human oversight“), weil Systemoutputs nicht hinreichend auf ihre Korrektheit geprüft werden und Korrekturmöglichkeiten, die den Überwachenden zur Verfügung stehen, nicht in Anspruch genommen werden. Eine Gefahr von Übervertrauen besteht im Rahmen von FRAUKE beispielsweise, wenn Richterinnen und Richter ungeprüft Vorschläge für Textbausteine als eigene Argumentationslinie übernehmen. Besonders bei hohem Zeitdruck und bei insgesamt hoher Güte der Systemempfehlungen kann möglicherweise Übervertrauen entstehen. Im Falle von FRAUKE könnten so ggf. überholte Begründungen übernommen werden oder unschlüssige Argumentationslinien entstehen, die zu (ggf. unanfechtbaren) Fehlentscheidungen führen und sich in der Arbeit anderer Richterinnen und Richter verstetigen.

[22]

Doch auch Untervertrauen stellt ein Risiko dar. Untervertrauen meint, dass sich Menschen zu wenig auf Systeme und deren Outputs verlassen. Zunächst stellt sich die Frage, warum ein (womöglich kostspieliges) System überhaupt eingesetzt wird, wenn Menschen es nicht nutzen. Des Weiteren bleiben erhoffte Effizienz- und Qualitätssteigerungseffekte aus, wenn Menschen Systemoutputs nicht oder unangemessen nutzen. Zuletzt können durch Untervertrauen neue Fehler entstehen, wenn Menschen eigentlich korrekte Systemoutputs ignorieren oder durch ihren Eingriff verschlechtern. Im Beispiel von FRAUKE könnte Untervertrauen bedeuten, dass Richterinnen und Richter die Textbausteine des Systems ignorieren oder selbstständig so anpassen, dass am Ende kaum Zeit eingespart wird und Argumentationslinien sich möglicherweise sogar verschlechtern.

4.3.

Hindsight Bias ^

[23]

Hindsight Bias25 beschreibt die Tendenz, Ereignisse im Nachhinein vorhersehbarer einzuschätzen, als sie in der eigentlichen Situation waren. Zukünftige Systeme könnten in der Rechtsprechung so eingesetzt werden, dass Erklärungen generiert werden, die aufzeigen, welche Entscheidungen und Aktionen beispielsweise in einem autonomen Fahrzeug später zu einem Unfall führten. Die Präsentation solcher Informationen kann dazu führen, dass negative Konsequenzen als vermeidbarer eingestuft werden, als sie eigentlich waren und beispielsweise Sorgfaltspflichten mit höherer Wahrscheinlichkeit als verletzt eingestuft werden. Im Fall von Flugverspätungsklagen könnte dieser Effekt im Rahmen der Frage von Relevanz sein, ob die Folgen eines außergewöhnlichen Umstandes für die Fluggesellschaft mit zumutbarem Aufwand vermeidbar gewesen wären – mit der Folge, dass ein Haftungsausschluss unberechtigterweise nicht in Betracht gezogen wird. Im Beispiel von FRAUKE könnte etwa ein ohne vollständigen Kontext dargestellter Vorschlag für einen möglicherweise passenden Textbaustein dazu führen, dass eine Flugverspätung irrtümlich als vermeidbar angesehen wird.

4.4.

Zwischenfazit ^

[24]

Insgesamt bietet die Implementierung algorithmischer Entscheidungsunterstützung in der Rechtsprechung Chancen und Risiken, von denen einige psychologischer Natur sind. Manche psychologische Risiken in der Rechtsprechung sind bereits ohne algorithmische Systeme bekannt, könnten aber durch diese verstärkt auftreten, während andere sich möglicherweise erst durch den Einsatz solcher Systeme ergeben. Das Wissen um solche Risiken sollte bereits bei Konzeption und Implementierung von Systemen in den Arbeitsalltag bedacht werden. FRAUKE stellt hier ein gutes Beispiel dar: Anstatt das System Entscheidungen generieren zu lassen, die den Richterinnen und Richtern direkt präsentiert werden, entschied man sich dazu, das System zur Produktion von Textblöcken einzusetzen. Damit wird beispielsweise Ankereffekten bei der Urteilsbildung vorgebeugt, auch wenn für die Auswahl von Begründungen weiterhin ein Ankereffekt bestehen bleiben könnte (z.B. wird von den vorgegebenen Begründungen kaum mehr abgewichen). Auch mit Hinblick auf Über- und Untervertrauen bleiben Risiken bestehen, die womöglich einer empirischen Überprüfung im Alltag von Richterinnen und Richtern bedürfen. Chancen einer solchen empirischen Überprüfung könnten die Verbesserung der Gestaltung des Systems und der Gestaltung der Zusammenarbeit von Mensch und System sein.

5.

Was sagt die Philosophie: Sollte der Einsatz von KI in der Justiz zulässig sein? ^

[25]

Wie eingangs erwähnt, sind Richterinnen und Richter menschliche Wesen aus Fleisch und Blut; als solche sind sie Wesen, die normative Gründe verstehen und auf sie reagieren können.26 Sie müssen von Gesetzes wegen sogar solche Wesen sein (dazu unten 6.1.).

[26]

Nun mutieren Richterinnen und Richter, wenn sie sich eines Urteilskonfigurators bedienen, allein dadurch nicht zu „Subsumtionsautomaten“: Sie sind weiterhin diejenigen, die die Urteile fällen, und sie sind auch weiterhin diejenigen, die selbige begründen (müssen). Letztgenanntes tun sie mithilfe von Urteilskonfiguratoren wie FRAUKE nur deutlich schneller – und möglicherweise sogar besser. Denn ohne FRAUKE arbeiten sie, statt mit den Textbausteinen dieses Konfigurators, häufig mit ihren eigenen, die als solche aber keiner externen Kontrolle unterliegen und folglich nur so gut sind, wie die einzelnen Richterinnen und Richter sie pflegen.27 Es spricht mithin einiges für den Einsatz von FRAUKE, jedenfalls dann, wenn FRAUKE bestimmte Qualitätsstandards erfüllt. Zu den betreffenden Standards gehört etwa, (i) dass FRAUKE mit juristisch korrekten Textbausteinen bestückt wird, (ii) dass die verwendeten Textbausteine aus zuverlässigen Quellen stammen, die prinzipiell auch für die Nutzer von FRAUKE zugänglich sind und (iii) dass FRAUKE, wo nötig, kontinuierlich und unverzüglich aktualisiert wird (z.B. Anpassung an geänderter höchstrichterliche Rechtsprechung). Darüber hinaus sollten mit dem Konfigurator erstellte Urteilsbegründungen solchen, die Richterinnen und Richter manuell erstellen, in nichts nachstehen; z.B. in puncto Klarheit, Ausführlichkeit, Nachvollziehbarkeit etc. Sind diese Qualitätsstandards de facto nicht oder nur teilweise erfüllt, sollten wir skeptischer sein. Es gilt dann zu prüfen, ob FRAUKE die geforderten Qualitätsstandards überhaupt erfüllen kann und, wenn ja, wie zu erreichen ist, dass sie tatsächlich erfüllt werden. Erst wenn entsprechende Änderungen implementiert sind, spricht dann tatsächlich einiges für den Einsatz.

[27]

Doch angenommen, wir können die Einhaltung bestimmter Qualitätsstandards als gesichert ansehen. Urteilskonfiguratoren scheinen dann also zunächst einmal einen positiven Beitrag zur Entlastung von Richterinnen und Richtern in Massenverfahren zu leisten. Allerdings bergen sie genau dadurch aber auch gewisse Gefahren.

5.1.

Richterliche Reflexion und die Gefahr der ex post-Rationalisierung ^

[28]

Zunächst einmal reflektieren Richterinnen und Richter normalerweise ihre Urteile, wenn und während sie sie zu begründen versuchen – in Abhängigkeit u.a. von der Komplexität der Fälle, mit denen sie es zu tun haben, von dem, was für die Beteiligten auf dem Spiel steht, oder auch von ihren vorgängigen Erfahrungen mit vergleichbaren Fällen. Sie vergegenwärtigen sich die einschlägigen normativen Gründe für mitunter intuitiv gewordene Expertenentscheidungen; sie prüfen, ob die Gründe ihre Urteile stützen; und stellen sie fest, dass die Gründe ihre Urteile nicht stützen, revidieren sie die Gründe, ggf. sogar das komplette Urteil mitsamt seinem Ergebnis. Genau dieses Reflektieren, dieses Er- und Abwägen von Gründen, drohen Urteilskonfiguratoren zu untergraben. Sie drohen das gewissenhafte Ringen um Begründungen und das sorgfältige Abfassen derselben durch ein quasi-mechanisches Aneinanderreihen von Textbausteinen zu ersetzen – und damit auch die Urteile nicht mehr zu fundieren, sondern nur noch ex post zu rationalisieren. Hierbei können u.a. die oben bereits erwähnten psychologischen Nebenwirkungen (Ankereffekte, Übervertrauen, Hindsight Bias) eine wichtige Rolle spielen; es besteht die Gefahr, dass bestehende Biases verstärkt, Hintergrundannahmen nicht sorgfältig geprüft und Entscheidungen, von denen Richterinnen und Richter nicht vollends überzeugt sind, stark gemacht werden, weil vermeintlich gute Gründe vom System vorgeschlagen werden.

[29]

Nun mag man argumentieren, dass diese Angst übertrieben oder gar unbegründet ist. Immerhin fällen Richterinnen und Richter ihre Urteile zunächst selbst und nutzen FRAUKE dann lediglich bei der Abfassung ihrer Begründungen. Insofern ist der Fall analog zu dem im Rechtssystem ausdrücklich vorgesehenen Fall, dass ein Urteil direkt vom Richterstuhl gefällt, die Begründung aber erst später geliefert wird.28 Bei solchen Stuhlurteilen steht, sogar stärker als beim Einsatz von FRAUKE, das Urteil bereits fest, wenn die Begründung formuliert wird. Handelt es sich nur deshalb bei der Begründung bereits um eine Ex-post-Rationalisierung des Urteils? Sicherlich gilt das nicht immer. Aber die Gefahr, dass das Urteil eben doch ex post rationalisiert wird, dürfte umso größer sein, je mehr Zeitdruck herrscht, je mehr Begründung man bereits ohne eigene Deliberation präsentiert bekommt und je weniger standardisiert und überschaubar die Fälle sind.29 In Auseinandersetzung mit standardisierten Klagen wegen verspäteter oder annullierter Flüge mag diese Gefahr noch gering sein; aber schon etwa bei Wohnraum betreffenden Räumungsklagen (welche ebenfalls vergleichsweise stark standardisiert sind) wird eine Vielzahl von unterschiedlichen Faktoren relevant, die sorgfältig gegeneinander abgewogen werden müssen, damit das gefällte Urteil als gerecht gelten darf.

[30]

Noch ist der Einsatz von Urteilskonfiguratoren sehr begrenzt. Aber sobald ein System wie FRAUKE sich einmal bewährt hat, wird es sicher schnell Nachfragen für weitere Anwendungsfelder geben. Die Frage, die wir uns dann stellen müssen, ist, unter genau welchen Bedingungen wir automatisierte Urteilsbegründungen zulassen wollen, wenn hier die Gefahr besteht, dass Richterinnen und Richter doch zu dem mutieren, was sie eben nicht sein dürfen: Subsumtionsautomaten, deren eigene Überprüfung und Begründung von Urteilen durch den Einsatz von Urteilskonfiguratoren ungewollt untergraben wird.

5.2.

Die Notwendigkeit empirischer Untersuchungen ^

[31]

Um zu klären, wie groß die Gefahr ist, könnte es sich lohnen, einmal empirisch zu untersuchen, wie genau Richterinnen und Richter tatsächlich mit Urteilskonfiguratoren für komplexere Fälle arbeiten würden. Lassen sie sich womöglich unterschiedliche Urteile begründen, explorieren und reflektieren diese im Anschluss, um dann den Konfigurator erneut zu starten? In dem Fall könnte die Software eine Reflexionshilfe sein, die nicht die eigene Reflexion ersetzt. Aber ob Richterinnen und Richter so arbeiten würden und, wenn ja, ob sie dann noch Zeit gegenüber dem „klassischen“ Verfassen einer Urteilsbegründung einsparen würden, das sind empirische Fragen, die wir hier nicht beantworten können.

[32]

Allgemein bleibt aber festzuhalten, dass wir nicht nur die oben bereits angerissenen Anforderungen an die Qualität der Urteilsbegründung als Endprodukt stellen (sollten), sondern auch Anforderungen an den Prozess bzw. die Genese dieser Begründung bestehen, die Urteilskonfiguratoren nicht untergraben sollten. In bestimmten (einfachen) Fällen mag dies freilich weniger relevant sein als in anderen (komplexeren).

5.3.

Zwischenfazit ^

[33]

Unter der Voraussetzung, dass FRAUKE die nötigen Qualitätsstandards erfüllt, spricht einiges für den Einsatz und wenig dagegen. Es spricht deshalb wenig dagegen, weil die Gefahren, die Urteilskonfiguratoren bergen, bei FRAUKE als vernachlässigbar gelten können. Die Fälle von Flugverspätungen und -annullierungen sind hoch standardisiert, und der Streitwert ist im Regelfall auf wenige hundert Euro begrenzt. Doch wo die Gefahren von Ex-post-Rationalisierungen größer werden, sollte auf den Einsatz von Konfiguratoren verzichtet werden.

[34]

Wo nun allgemein die Linie zu ziehen ist, die die Bereiche, in denen Urteilskonfiguratoren sich eignen, von solchen trennt, in denen darauf verzichtet werden sollte, bedarf neben einer genaueren Abwägung von Kosten und Nutzen auch Forschung zum Verhalten im Umgang mit Konfiguratoren. Solange keine empirischen Daten hierzu vorliegen, ließe sich etwa folgende Daumenregel erwägen: Der Einsatz von Urteilskonfiguratoren ist in der Regel in solchen Fällen angemessen, in denen erfahrene Richterinnen und Richter eine Entscheidung im Wege eines Stuhlurteils in der Sache als unbedenklich ansehen würden.30 Der Vorteil einer solchen Regel bestünde darin, dass für den Einsatz von KI-Systemen auf vorhandenem Expertenwissen aufgebaut werden kann und nicht zwangsläufig eine neue, explizit ausformulierte Regulierung erforderlich wird.

6.

Grundlegende rechtliche Anforderungen an KI in der Justiz ^

[35]

Nachfolgend können aus der Perspektive der Rechtswissenschaft lediglich einige grundlegenden Anforderungen genannt werden, die an den Einsatz von KI-Systemen in der Justiz zu stellen sind.31 Interessanterweise sind die aus rechtlicher Sicht anzutreffenden Bedenken häufig solche, die hier bereits aus psychologischem Blickwinkel betrachtet wurden:32 So wird etwa eine zunehmende Fremdbestimmung aufgrund eines „Automation Bias“ durch die unreflektierte Übernahme von KI-Empfehlungen befürchtet,33 auch der bereits angesprochene begrenzte Nutzen menschlicher Aufsicht für den Fall einer (zu) zögerlichen Nutzung entsprechender Befugnisse wird als mögliche Schwachstelle des Konzepts identifiziert.34 Auch die Forderung aus der Philosophie, KI-Systeme nur bei Erfüllung von qualitativen Mindeststandards und im Einklang mit normativen Werten einzusetzen, findet sich in der rechtswissenschaftlichen Diskussion – nicht zuletzt in den Anforderungen des geplanten KI-Gesetzes – wieder.

6.1.

Verfassungsrecht: Menschliche und unabhängige Richterinnen und Richter ^

[36]

Das deutsche Verfassungsrecht stellt zwei zentrale Anforderungen auf, die im hiesigen Kontext von besonderem Interesse sind: Die rechtsprechende Gewalt ist, so legt es Art. 92 GG fest, den „Richtern“ anvertraut. Darüber hinaus bestimmt Art. 97 Abs. 1 GG, dass die Richter unabhängig und nur dem Gesetze unterworfen sind.

[37]

Einigkeit besteht zunächst darin, dass „Richter“ im Sinne von Art. 92 GG – wie bereits einleitend erwähnt – nur menschliche Richter sein können.35 Die Idee eines „Robo-Richters“ oder eines „Subsumtionsautomaten“ ist daher mit dem geltenden Verfassungsrecht nicht vereinbar. Hieraus folgt zugleich eine Minimalanforderung an den Einsatz von KI-Systemen in der Justiz: Die letzte Entscheidungshoheit muss in jedem Fall – gleichviel, wozu KI-Systeme tatsächlich fähig wären36 – einem Menschen überlassen bleiben. Indes: Das deutsche Zivilprozessrecht kennt mit der maschinellen Durchführung des Mahnverfahrens (vgl. § 689 Abs. 1 S. 2 ZPO) schon heute ein stark technologiegetriebenes Verfahren; der hohe Grad an Automatisierung wird hier allerdings durch die Möglichkeit kompensiert, eine Entscheidung durch einen menschlichen Richter zu erzwingen. Werden KI-Systeme hingegen nicht in einem eigens hierfür geschaffenen, sondern im üblichen Klageverfahren eingesetzt, muss es bei der Letztentscheidungsbefugnis der Richterin und des Richters verbleiben; dabei ist allerdings unklar, ob und wie sich etwa Ankereffekte oder Übervertrauen rechtlich auswirken. Ähnlich wie beim datenschutzrechtlichen Verbot automatisierter Entscheidungsfindung (Art. 22 DSGVO) ist zu fordern, dass die Entscheidungsbefugnis des Menschen nicht bloß auf dem Papier besteht.37 FRAUKE jedenfalls wahrt die Entscheidungshoheit der Richterinnen und Richter auf den ersten Blick durch eine naheliegende Designentscheidung: Das Ergebnis des zu konfigurierenden Urteils wird vorab festgelegt, die (für ungewollte Einflüsse besonders anfällige) Entscheidungsbegründung ist zeitlich nachgelagert.

[38]

Die zweite, im Zusammenhang mit Entscheidungsunterstützungssystemen vieldiskutierte Frage ist, wie die Unabhängigkeit der Richterinnen und Richter gewährleistet werden kann. Von Bedeutung sind insoweit zwei zentrale Aspekte: Einerseits sind die Entscheidenden von einer unmittelbaren Beeinflussung der Sachentscheidung freizuhalten, andererseits sind auch faktische Zwänge zu vermeiden, die sich auf die freie Entscheidungsfindung negativ auswirken können. Während eine Beeinflussung der Sachentscheidung durch FRAUKE in der derzeitigen Ausgestaltung des Systems eher fernliegen dürfte, ist insbesondere angesichts der hohen Fallzahlen zu beachten, dass Richterinnen und Richter nicht – auch nicht faktisch – zur Nutzung des Systems verpflichtet werden dürfen.38 Ein faktischer Nutzungszwang kann dabei schon dadurch entstehen, dass das anfallende Arbeitspensum ohne die Nutzung des Systems nicht bzw. mit einem erhöhten Rechtfertigungsdruck bewältigt werden kann.39 So ist beim Vorschlag von Textbausteinen aus kollaborativ erstellten Sammlungen sicherzustellen, dass diese hinreichend repräsentativ sind und nicht – wenngleich unbewusst und ungewollt – eine umstrittene Rechtsmeinung gegenüber einer beachtlichen Gegenauffassung bevorzugen. Vor diesem Hintergrund bedarf es geeigneter Mechanismen, um eine hinreichende Diversität in den genutzten Daten sicherzustellen. Insoweit ist es begrüßenswert, dass im Fall von FRAUKE zunächst die Bearbeitung einfach gelagerter Fallgruppen unterstützt wird.

6.2.

Anforderungen an die Pflicht zur Urteilsbegründung ^

[39]

Ein weiterer Aspekt betrifft die Frage, ob eine KI-assistierte oder gar vollständig KI-generierte Urteilsbegründung den rechtlichen Mindestanforderungen an eine Urteilsbegründung genügt. Im deutschen Zivilprozessrecht ist hierzu geregelt, dass die Entscheidungsgründe eines Urteils grundsätzlich eine kurze Zusammenfassung der Erwägungen enthalten muss, auf denen die Entscheidung in tatsächlicher und rechtlicher Hinsicht beruht (§ 313 Abs. 3 ZPO); fehlt eine entsprechende Begründung, ist das Urteil (formell) rechtsfehlerhaft. Der Zweck der Urteilsbegründung, dass die Parteien das Urteil nachvollziehen können sollen,40 gebietet naturgemäß eine konkrete Bezugnahme auf den jeweiligen Einzelfall. Hiermit ist es grundsätzlich vereinbar, wenn zur Begründung auf Textbausteine zurückgegriffen wird, um vom Einzelfall losgelöste Urteilspassagen zu erstellen, die sodann durch Inbezugnahme der Fakten des Einzelfalls subsumiert werden; eine Begründung, die ausschließlich aus Textbausteinen besteht, genügt diesen Anforderungen demgegenüber nicht.41

[40]

Urteilskonfiguratoren wie FRAUKE werfen damit die Frage auf, in welchem Umfang eine Automatisierung der Entscheidungsbegründung zulässig ist. Man mag geneigt sein, eine Parallele zu dem bereits höchstrichterlich entschiedenen Fall zu ziehen, dass Vertragsentwürfe mithilfe eines „Vertragsgenerators“ vollautomatisiert generiert werden. Der BGH hat hierzu entschieden, dass die Erstellung eines Vertragsentwurfs mithilfe eines digitalen Rechtsdokumentengenerators keine – einem Rechtsanwalt vorbehaltene – Rechtsdienstleistung i.S.v. § 2 Abs. 1 RDG darstellt, wenn im Anschluss an die Beantwortung eines Fragebogens lediglich standardisierte Vertragsklauseln abgerufen werden.42 Zur Begründung hat der BGH angeführt, dass das Bereitstellen eines softwarebasierten Vertragsentwurfs keine auf einen konkreten Sachverhalt zugeschnittene Tätigkeit darstellt.43

[41]

Wäre diese Argumentation auf eine KI-generierte Begründung einer Gerichtsentscheidung übertragbar, müsste die insoweit maßgebliche Kernanforderung – die Begründung der Entscheidung im konkreten Einzelfall – als nicht erfüllt angesehen werden. Der Unterschied zum „Vertragsgenerator“ besteht allerdings darin, dass dieser ohne jede Beaufsichtigung durch eine rechtskundige Person arbeitet, während FRAUKE durch eine Richterin oder einen Richter bedient wird. Überdies bietet FRAUKE – wie dargestellt – die Möglichkeit, die Entscheidungsgründe manuell zu bearbeiten, was ebenfalls für eine einzelfallbezogene Begründung spricht.

6.3.

Ausblick: Der Entwurf eines KI-Gesetzes ^

[42]

Schließlich soll ein kurzer Blick auf die europäische Perspektive des KI-Einsatzes im Richterzimmer geworfen werden. Hier ist festzustellen, dass der Einsatz von KI-Systemen durch die Justiz vom Entwurf des KI-Gesetzes44 als Hochrisiko-KI eingestuft wird.45 Daraus folgt zweierlei: Zunächst lautet die wichtige Nachricht, dass derartige Systeme nicht etwa gänzlich unzulässig sind, sondern grundsätzlich eingesetzt werden dürfen. Darüber hinaus bedeutet dies aber auch, dass der Einsatz von KI-Systemen künftig den strengen Anforderungen des KI-Gesetzes unterworfen sein wird.

[43]

Der Einsatz eines Urteilskonfigurators wie FRAUKE mag dann zwar nach den Vorgaben des nationalen Verfassungs- und Prozessrechts ohne gesonderte gesetzliche Grundlage zulässig sein; nach unionsrechtlichen Vorgaben indes müssen derartige Systeme künftig die Anforderungen an Hochrisiko-KI-Systeme erfüllen, um sie auch auf der Grundlage des KI-Gesetzes rechtskonform einsetzen zu dürfen. Hierzu zählen insbesondere die Sicherstellung einer hinreichenden Datenqualität (bei FRAUKE etwa durch Auswahl geeigneter Textbausteine) sowie die Ergreifung von Maßnahmen zur Vermeidung eines möglichen Automation Bias, die insbesondere in der Bereitstellung aussagekräftiger Informationen der Nutzerinnen und Nutzer über die vom Systemeinsatz ausgehenden Risiken bestehen können.

7.

Zusammenfassung ^

[44]

Der vorliegende Beitrag hat gezeigt, dass mit der automatisierten Durchsetzung von Fluggastrechten eine überaus praxisrelevante Fallgestaltung besteht, bei der ein Rückgriff auf KI-Systeme in vielerlei Hinsicht vorteilhaft erscheint: Die Arbeitslast ist zahlenmäßig gewaltig, das Automatisierungspotenzial aufgrund des überschaubaren rechtlichen Rahmens immens, die Konsequenzen von Fehlentscheidungen gering. Kurzum: Die zahlreichen Risiken, die mit dem Einsatz von KI-Systemen in der Justiz assoziiert werden, scheinen hinnehmbar und dürften durch die offensichtlichen Vorteile aufgewogen werden.

[45]

Zugleich zeigt sich, dass dieses zurückhaltend-positive Fazit den besonderen Umständen der hier untersuchten Fallgestaltung geschuldet ist; auf andere Anwendungsfälle lässt sich dies nicht, jedenfalls nicht unbesehen übertragen. Stets sind die hier aufgezeigten Risiken gegen den Nutzen eines Systems abzuwägen; dabei ist auch die Frage aufgeworfen, ob diese Abwägungsentscheidung – wie bislang – von den Gerichten autonom entschieden werden sollte, oder ob es womöglich – über das geplante KI-Gesetz hinaus – gesetzlicher Leitplanken für den KI-Einsatz in der Justiz bedarf.

[46]

Eine Kernanforderung jeglichen Einsatzes von KI-Systemen in der Justiz muss – das hat dieser Beitrag ebenfalls hervorgebracht – die Gewährleistung einer effektiven Evaluation mit dem Ziel einer reflektierenden Selbstkontrolle sein. Die Unterminierung einer unabhängigen, durch menschliche Richterinnen und Richter ausgeübten Justiz durch den Einsatz von Künstlicher Intelligenz geschähe sehr wahrscheinlich schleichend; dem mittels geeigneter Mechanismen vorzubeugen, ist eine der zentralen Herausforderungen, die beim KI-Einsatz in der Justiz zu bewältigen sein wird. Dabei schwingt freilich stets die Frage mit, ob der KI-Einsatz in der Sache wünschenswert oder lediglich zulässiger „Notnagel“ ist; möglicherweise verdienen in bestimmten Konstellationen – nicht zuletzt in den hier untersuchten Fällen von Flugverspätungsentschädigungen – andere Konzepte als ein „technologisches Wettrüsten“ zwischen Justiz und Rechtsdienstleistern den Vorzug, um Fluggästen schneller und effektiver zu ihrem Recht zu verhelfen.

8.

Literatur ^

Borutta, Yannik/Haag, Matthias/Hoffmann, Hanna/Kevekordes, Johannes/Vogt, Verena, Strategiepapiere der EU-Kommission zur Künstlichen Intelligenz (KI), MMR-Aktuell 2020, 427809.

Elzer, Oliver, Kommentierung v. §§ 310, 313 ZPO, in: Vorwerk/Wolf (Hrsg.), Beck’scher Online-Kommentar ZPO, 46. Edition, Stand: 46. Edition (1.9.2022).

Englich, Birte/Mussweiler, Thomas/Strack, Fritz, Playing Dice With Criminal Sentences: The Influence of Irrelevant Anchors on Experts’ Judicial Decision Making, Personality and Social Psychology Bulletin, 32(2), 2016, S. 188–200, abrufbar unter: https://doi.org/10.1177/0146167205282152.

Fries, Martin, Frauke richtet, NJW-Editorial vom 9. Juni 2022, abrufbar unter: https://rsw.beck.de/aktuell/daily/magazin/detail/frauke-richtet.

Fries, Martin, Schadensersatz ex machina, Neue Juristische Wochenschrift (NJW) 2019, S. 901–905.

Hausmann, Ludwig, Europäische Fluggastrechte im Fall der Nichtbeförderung und bei Annullierung und großer Verspätung von Flügen, Jena 2012 (zit.: Fluggastrechte).

Hoeren, Thomas/Sieber, Ulrich/Holznagel, Bernd (Hrsg.), Handbuch Multimediarecht, Stand: 58. Ergänzungslieferung (März 2022), München 2022 (zit.: Bearbeiter, in: MMR-Hdb.).

Kaber, David B./Endsley, Mica R., The effects of level of automation and adaptive automation on human performance, situation awareness and workload in a dynamic control task, Theoretical Issues in Ergonomics Science, 5(2), 2007, S. 113–153, abrufbar unter: https://doi.org/10.1080/1463922021000054335.

Lehmann, Matthias/Wancke, Anselm-Leander, Annullierte oder verspätete Flüge: Die Frage des Gerichtsstands, Bonner Rechtsjournal (BRJ) 02/2017, S. 107–113.

Martini, Mario, Kommentierung v. Art. 22 DSGVO, in: Paal/Pauly (Hrsg.), DS-GVO/BDSG, 3. Aufl., München 2021.

Musielak, Hans-Joachim, Kommentierung v. § 310 ZPO, in: Rauscher/Krüger (Hrsg.), Münchener Kommentar zur ZPO, 6. Aufl., München 2020.

Nink, David, Justiz und Algorithmen, Berlin 2021.

Parasuraman, Raja/Sheridan, Tom B./Wickens, Christopher D., A model for types and levels of human interaction with automation, IEEE Transactions on Systems, Man, and Cybernetics – Part A: Systems and Humans, 30(3), 2000, S. 286–297, abrufbar unter: https://doi.org/10.1109/3468.844354.

Parfit, Derek, On What Matters, Oxford, 2011.

Roese, Neal J./Vohs, Kathleen D., Hindsight Bias, Perspectives on Psychological Science, 7(5), 2012, S. 411–426, abrufbar unter: https://doi.org/10.1177/1745691612454303.

Rollberg, Christoph, Algorithmen in der Justiz, Baden-Baden 2020.

Steinrötter, Björn, Kommentierung v. Art. 1–19 Fluggastrechte-Verordnung, in: Gsell/Krüger/Lorenz/Reymann (Hrsg.), Beck’scher Online-Großkommentar (BeckOGK) Zivilrecht, Stand: 1.11.2022.

Tavakoli, Anusch Alexander, Automatische Fluggast-Entschädigung durch smart contracts, Zeitschrift für Rechtspolitik (ZRP) 2020, S. 46–49.

  1. 1 Prominentes Beispiel ist etwa die Flightright GmbH (www.flightright.de), hierneben sind aber auch zahlreiche weitere Anbieter am Markt tätig.
  2. 2 Ein Anbieter, der bereits höchstrichterliche Urteile in Deutschland erstritten hat, ist die Financialright claims GmbH (www.financialright.com); siehe hierzu etwa BGH, Urt. v. 13.6.2022, Az. VIa ZR 418/21 = NJW 2022, 3350 ff.
  3. 3 Die ersten Verfahren angestrengt hat dabei die Lexfox GmbH mit ihrem Portal wenigermiete.de, das heute von der Conny GmbH fortgeführt wird.
  4. 4 BGH, Urt. v. 27.11.2019, Az. VIII ZR 285/18 = BGHZ 224, 89 ff.; bestätigt durch BGH, Urt. v. 8.4.2020, Az. VIII ZR 130/19 = NJW-RR 2020, 779 ff.; BGH, Urt. v. 19.1.2022, Az. VIII ZR 123/21 = NJW-RR 2022, 376 ff.
  5. 5 BGH, Urt. v. 18.1.2011, Az. X ZR 71/10, Rn. 24 ff. = NJW 2011, 2056, 2057 f.; ausführlich zur (auch: internationalen) Zuständigkeit des Gerichts bei Ansprüchen wegen Flugverspätungen Lehmann/Wancke, BRJ 2017, 107 ff.; zur Zuständigkeit bei Verspätungen von Teilflügen EuGH, Urt. v. 3.2.2022, Rs. C-20/21.
  6. 6 Presseinformation zur Jahrespressekonferenz des Amtsgerichts Frankfurt am Main vom 08.05.2020, S. 8, 22; Presseinformation zur Jahrespressekonferenz des Amtsgerichts Frankfurt am Main vom 19.03.2021, S. 12, 27.
  7. 7 Vgl. die Pressemitteilung von IBM, abrufbar unter https://de.newsroom.ibm.com/2022-12-07-OLG-Stuttgart-pilotiert-IBM-Massenverfahrensassistenten-zur-Fallbearbeitung-in-Dieselabgasverfahren.
  8. 8 Verordnung (EG) Nr. 261/2004 des Europäischen Parlaments und des Rates vom 11. Februar 2004 über eine gemeinsame Regelung für Ausgleichs- und Unterstützungsleistungen für Fluggäste im Fall der Nichtbeförderung und bei Annullierung oder großer Verspätung von Flügen und zur Aufhebung der Verordnung (EWG) Nr. 295/91, ABl. EU L 46, S. 1 ff.
  9. 9 Hierneben besteht mit dem Übereinkommen zur Vereinheitlichung bestimmter Vorschriften über die Beförderung im internationalen Luftverkehr vom 28. Mai 1999 – dem sog. Montrealer Übereinkommen – eine Grundlage für die individuelle Wiedergutmachung von Schäden; zur Abgrenzung EuGH, Urt. v. 10.1.2006, Rs. C-344/04, Rn. 34 ff.
  10. 10 EuGH, Urt. v. 19.11.2009, verb. Rs. C-402-07 und C-432/07, Rn. 40–66.
  11. 11 EuGH, Urt. v. 19.11.2009, verb. Rs. C-402-07 und C-432/07, Rn. 67, 69.
  12. 12 Vgl. für den Ausbruch des Vulkans Eyjafjallajökull im März 2010 EuGH, Urt. v. 31.1.2013, Rs. C-12/11.
  13. 13 Steinrötter, in: BeckOGK, Art. 5 FGVO Rn. 84.
  14. 14 Steinrötter, in: BeckOGK, Art. 5 FGVO Rn. 97.
  15. 15 Gegen eine Beachtlichkeit „wilden“ Streiks etwa EuGH, Urt. v. 17.4.2018, Rs. C-195/17; für eine Beachtlichkeit des Streiks fluggesellschaftseigenen Personals BGH, Urt. v. 21.8.2012, Az. X ZR 138/11.
  16. 16 EuGH, Urt. v. 22.12.2008, Rs. C-549/07.
  17. 17 Ausführlich Tavakoli, ZRP 2020, 46 ff.; am Rande auch Fries, NJW 2019, 901, 902.
  18. 18 In einer weiteren Projektausbaustufe ist geplant, dass das System auch die Fallgruppe automatisch aufgrund der Schriftsatzanalyse vorschlägt.
  19. 19 Siehe zu den maßgeblichen Ausschlussgründen für Ansprüche auf Verspätungsentschädigungen soeben 2.
  20. 20 Parasuraman/Sheridan/Wickens, IEEE Transactions on Systems, Man, and Cybernetics – Part A: Systems and Humans, 30(3), S. 286 ff.
  21. 21 Kaber/Endsley, Theoretical Issues in Ergonomics Science, 5(2), S. 113 ff.
  22. 22 Englich/Mussweiler/Strack, Personality and Social Psychology Bulletin, 32(2), 188 ff..
  23. 23 Vorschlag für eine Verordnung des Europäischen Parlaments und des Rates zur Festlegung harmonisierter Vorschriften für Künstliche Intelligenz (Gesetz über Künstliche Intelligenz) vom 21.4.2021, COM(2021) 206 final.
  24. 24 Vgl. Art. 14 Abs. 4 lit. b) des Vorschlags.
  25. 25 Z.B. Roese/Vohs, Perspectives on Psychological Science, 7(5), S. 411 ff.
  26. 26 Parfit, On What Matters, Kap. 1.1: „We are animals that can both understand and respond to reasons.“
  27. 27 Einer externen Kontrolle unterliegen allenfalls die mit ihnen begründeten Urteile, wenn sie mit Rechtsmitteln überprüft werden. Dieser Weg steht jedoch in manchen Fällen nicht offen. Dies gilt regelmäßig für den hier diskutierten Fall von Klagen wegen Flugverspätungen, deren Streitwert häufig die Berufungssumme nicht erreicht.
  28. 28 Aus der Perspektive des deutschen Zivilprozessrechts etwa stellt das „Stuhlurteil“ den vom Gesetz zuerst genannten „Idealfall“ dar, die Praxis hingegen verfährt regelmäßig anders (vgl. Elzer, in: BeckOK ZPO, § 310 Rn. 10).
  29. 29 Bei der Entscheidung der Richterin, ob sie ein Stuhlurteil fällt oder einen gesonderten Verkündungstermin bestimmt, ist daher regelmäßig der Vorteil einer schnellen Entscheidung gegen die Gefahr abzuwägen, im Einzelfall wichtige Gesichtspunkte übersehen zu haben (Musielak, in: Musielak/Voit, ZPO, § 310 Rn. 4).
  30. 30 Die hier in Bezug genommene „Unbedenklichkeit“ eines Stuhlurteils bezieht sich ausdrücklich nicht auf die rechtliche Zulässigkeit, sondern auf die Frage, ob im Einzelfall tatsächlich die Gefahr einer Fehlentscheidung so gering ist, dass der Vorteil einer zügigen Entscheidung insgesamt überwiegt.
  31. 31 Monographisch hierzu Nink, Justiz und Algorithmen, 2021; Rollberg, Algorithmen in der Justiz, 2020.
  32. 32 Ausführlich zu ungewollten rechtsfremden Einflüssen Nink, Justiz und Algorithmen, S. 45 ff.
  33. 33 Kevekordes, in: MMR-Hdb., Teil 29.1 Rn. 44.
  34. 34 Borutta/Haag/Hoffmann/Kevekordes/Vogt, MMR-Aktuell 2020, 427809.
  35. 35 Nink, Justiz und Algorithmen, S. 261 ff.; Rollberg, Algorithmen in der Justiz, S. 88 f.
  36. 36 Deutlich etwa Fries, NJW-Editorial vom 9. Juni 2022: „Frauke will kein Urteilsroboter sein, ist aber nicht weit davon entfernt. Sie könnte, wenn man sie ließe.“
  37. 37 Vgl. Martini, in: Paal/Pauly, DS-GVO, Art. 22 Rn. 19.
  38. 38 Zulässig ist indes die Bereitstellung zur freiwilligen Nutzung, vgl. Rollberg, Algorithmen in der Justiz, S. 125 f.
  39. 39 Siehe hierzu Nink, Justiz und Algorithmen, S. 297.
  40. 40 BVerwG, Urt. v. 13.6.2022, Az. VIa ZR 418/21 Beschl. v. 5.6.1998, Az. 9 B 412-98 = NJW 1998, 3290; Elzer, in: BeckOK ZPO, § 313 Rn. 221.
  41. 41 OLG Celle, Beschl. v. 30.11.1989, Az. 12 UF 176/89 = FamRZ 1990, 419.
  42. 42 BGH, Urt. v. 9.9.2021, Az. I ZR 113/20 = NJW 2021, 3125.
  43. 43 BGH, Urt. v. 9.9.2021, Az. I ZR 113/20, Rn. 31 ff. = NJW 2021, 3125, 3128.
  44. 44 Siehe den Fundstellennachweis oben Fn. 23.
  45. 45 Vgl. Anhang III Ziffer 8 des Entwurfs vom 21.4.2021.