Jusletter IT

Der singularistische Rechtsdämon

Digitalisierung des Rechts auf Abwegen

  • Author: Peter Ebenhoch
  • Category of articles: Legal Informatics
  • Field of law: Legal Informatics
  • DOI: 10.38023/9bd6e327-2d72-4416-9261-ef6b4b5d6432
  • Citation: Peter Ebenhoch, Der singularistische Rechtsdämon, in: Jusletter IT 29 June 2023
The article examines whether legal singularity according to Alarie is possible. His speculative argumentation patterns evade scientific evaluability by reference to the future. Legal singularity is not possible. It aims at a transhuman dystopia that sacrifice democratic transparency and basic legal values to a digital autocracy. Only humans can establish legal objectivity through shared subjectivity. Outputs from AI systems should be treated with caution because of reality blindness, lack of traceability, and erratic nature. They can be described as «abjective» and require prudent regulation.

Inhaltsverzeichnis

  • 1. Einleitung
  • 2. Rechtlicher Singularismus – ein Hirngespinst?
  • 3. Methodische Grundlagen
  • 3.1. Unklarer wissenschaftlicher Hintergrund
  • 3.2. Ontologische und wissenschaftliche Grundannahmen
  • 3.2.1. Systemtheorie
  • 3.2.2. Psychische, soziale und technische (digitale/formale) Systeme
  • 3.2.3. Rationale Entscheidungen
  • 3.2.4. Subjektivität, Intersubjektivität, Objektivität – und Abjektivität
  • 3.2.4.1. Kognitive Verzerrungen
  • 3.2.5. Natürliche Sprachen, Fachsprachen und formale Sprachen
  • 3.2.6. Syntax, Semantik und Pragmatik
  • 3.2.7. Enge und lose Kopplung
  • 4. Argumentation von Alarie: Teil 1 – Erfolgsbeispiele
  • 4.1. Erfolgsbeispiel 1: GO
  • 4.2. Erfolgsbeispiel 2: Steuerrecht als repräsentatives Beispiel?
  • 4.2.1. Steuerrecht als formalisierbares Rechtsgebiet
  • 4.3. Einordnung der Erfolgsbeispiele
  • 4.3.1. Wie sollen Tatbestandsvoraussetzungen geklärt werden?
  • 4.3.2. «Futurehype» als Argumentationsmuster
  • 4.3.3. Futurologische Vision anstelle wissenschaftlicher Diskussion
  • 5. Argumentation von Alarie: Teil 2 – Erfolgsvoraussetzungen
  • 5.1. Kostenreduktion als Motivation
  • 5.2. Datenakkumulation und Inferenzregeln als Erfolgsvoraussetzung
  • 5.3. Erfolgsvoraussetzung 1: Datenakkumulation
  • 5.3.1. Lost in Data?
  • 5.3.2. Digitale Daten sind bedeutungslose Speicherstellen – ad (1)
  • 5.3.3. Wie kommen Fakten in das System – Einspeisung aus der Realität – ad (2)
  • 5.3.3.1. Das Orakel-Problem
  • 5.3.4. Beschränkungen durch Datenmodelle (Wissensrepräsentation)
  • 5.3.4.1. Abbildungsfunktion
  • 5.3.4.2. Teilmenge
  • 5.4. Erfolgsvoraussetzung 2: Inferenzregeln
  • 5.4.1. Textimmanente Korrelationen und Koinzidenzen bewirken keine rechtliche Kausalität
  • 5.4.2. Widerspruchsfreiheit
  • 5.4.3. Halteproblem
  • 5.4.4. Unvorhersagbarkeitsproblem
  • 6. Abjektivität – ein neuer Begriff und seine Bedeutung
  • 7. Resümee

1.

Einleitung ^

[1]

Rechtsvisualisierung nach Lachmayer1 ermöglicht es, das Digitale und Formale gemeinsam mit dem Situativen und Intentionalen zu einer einheitlichen Sinngebung kommunikativ zu verbinden und für Zwecke der Rechtsinformatik zu nutzen.

[2]

Dieses Potenzial steht in Kontrast zu reduktionistischen und einseitig effizienzorientierten Bestrebungen zur digitalen Transformation des Rechts.

[3]

Auf eine solche Perspektive wird seit den Anfängen der Formalisierung und der Wissensrepräsentation des Rechts fokussiert, unter Vernachlässigung der dadurch entstehenden Probleme.2 Es droht die Gefahr, dass durch eine in die Zukunft gierende Technikfixierung das Recht zur Algokratie3 verkommt und seiner eigentlichen Bedeutung als regel- und wertebasiertes soziales Steuerungs- und Konfliktvermeidungssystem entkleidet wird.

[4]

In diesem Beitrag untersuche ich den Artikel «The Path of the Law: Toward Legal Singularity» von Benjamin Alarie,4 der stellvertretend für diese reduktionistische und spekulative Sichtweise der Digitalisierung des Rechts steht, näher auf seinen wissenschaftliche Hintergrund und seine methodische Nachvollziehbarkeit.

2.

Rechtlicher Singularismus – ein Hirngespinst? ^

[5]

1814 schrieb Pierre-Simon Laplace5 im Vorwort des «Essai philosophique sur les probabilités»:

«Eine Intelligenz, die in einem gegebenen Augenblick alle Kräfte kennt, mit denen die Welt begabt ist, und die gegenwärtige Lage der Gebilde, die sie zusammensetzen, und die überdies umfassend genug wäre, diese Kenntnisse der Analyse zu unterwerfen, würde in der gleichen Formel die Bewegungen der größten Himmelskörper und die des leichtesten Atoms einbegreifen. Nichts wäre für sie ungewiss, Zukunft und Vergangenheit lägen klar vor ihren Augen.» 6
[6]

2016 veröffentlichte Benjamin Alarie, ein Steuerrechtsexperte, Professor an der Rechtswissenschaftlichen Fakultät der Universität of Toronto,7 und Geschäftsführer einer Firma für «Legal Predactibility», in seinem Artikel «The Path of the Law: Toward Legal Singularity» diese Aussagen:

«The accumulation of massively more data and dramatically improved methods of inference make legal uncertainty obsolete. […] The legal singularity contemplates the elimination of legal uncertainty and the emergence of a seamless legal order, universally accessible in real-time.» 8
[7]

Obwohl diese beiden Texte über 200 Jahre auseinander liegen und sich die eine auf die physische Realität bezieht, die andere auf eine angestrebte Transformation des Rechtssystems, sticht ihre Ähnlichkeit ins Auge:9

«Dämon» Physische Realität Rechtliche Realität
Prophet Laplace Alarie
Jahr 1814 2016
Absoluter
Determinismus
Eine Intelligenz, die in einem gegebenen Augenblick alle Kräfte [massively more data] kennt, die überdies umfassend genug wäre, diese Kenntnisse der Analyse zu unterwerfen [methods of inference], würde in der gleichen Formel die Bewegungen der größten Himmelskörper und die des leichtesten Atoms einbegreifen [contemplates complete law]. The accumulation of massively more data and dramatically improved methods of inference make legal uncertainty obsolete. […]The legal singularity contemplates complete law.
Umfassende Gewissheit in der Zeit Nichts wäre für sie ungewiss [elimination of legal uncertainty, seamless legal order], Zukunft und Vergangenheit lägen klar vor ihren Augen [universally accessible in real time], The legal singularity contemplates the elimination of legal uncertainty and the emergence of a seamless legal order, universally accessible in real-time.
[8]

Dass der Laplasche’sche Dämon unhaltbar ist und der naturwissenschaftliche Determinismus zu kurz greift, lässt sich einfach begründen:

  • Die kartesianische Idee, dass die Welt aus einfachen Newton’schen Kräften besteht, die auf diskrete Teilchen wirken, wurde von der Quantenphysik widerlegt.
  • Und weil der Dämon selbst Teil des beobachteten Universums wäre, das beobachtende und das beobachtete System zusammenfiele, müsste er sein eigenes Verhalten vorhersagen können, was informations- und systemtheoretischen Grundsätzen widerspricht.
[9]

Deshalb wird vom «Laplace’schen Dämon» gesprochen – als Wunschvorstellung und Hirngespinst.

[10]

Was bedeutet das für die Thesen von Alarie? Ist eine «Singularität des Rechts» als eigenautonome Rechtsautomatisierung durch Künstliche Intelligenz (KI) tatsächlich möglich?

[11]

Alarie lässt keine Zweifel aufkommen: Er folgt seiner Idee, ohne weitere Differenzierungen vorzunehmen10 oder Beschränkungen zu prüfen, die einer digitalen Exekutive, Judikative oder gar Legislative entgegenstehen könnten.

[12]

Damit ist er nicht alleine: Im Sog von Transhumanismus, Solutionismus, Digitalismus, Futorologie und von Longtermismus häufen sich im Bereich des Rechts wissenschaftlich anmutende Beiträge, die sich prophetisch mit der Digitalisierung des Rechts beschäftigen und auf eigenartig naive Weise Rechtsdystopien herbeischreiben, vor deren Eintritt sich jeder Mensch, der an das Recht und die dahinterstehende werteorientierte gesellschaftliche Ordnungskraft und damit garantierte persönliche Freiheiten glaubt, fürchten muss.

[13]

In diesem Beitrag werde ich die Thesen von Alarie kritisch dekonstruieren und Argumentationsmuster nachweisen, die für diese Kategorie von Texten typisch ist.

3.

Methodische Grundlagen ^

3.1.

Unklarer wissenschaftlicher Hintergrund ^

[14]

Der Artikel von Alarie ist im akademischen Kontext entstanden. Dennoch bleibt unklar, auf Basis welcher wissenschaftlich-rationaler Methoden er zu seinen Behauptungen und Thesen kommt, nach denen Rechtsfindung und Rechtssetzung künftig mit Hilfe von KI vollständig automatisiert werden könnten.

[15]

So eröffnet er mit einem Zitat aus dem Jahr 1897, in dem Oliver Wendell Holmes jr. behauptet,11 dass Statistik und Wirtschaft die Zukunft des Rechts prägen werden. Das ist nicht verwunderlich, sah Holmes doch die Vorhersage von Gerichtsentscheidungen12 als Hauptaufgabe des Rechts13 – eine vereinfachende Einschätzung, die wohl zu kurz greift.14

[16]

Dann behauptet Alarie, dass die von ihm propagierte Singularität die Idee des Equilibrums nach Rawls15 umsetzen könne. Abgesehen von der Frage, ob und wie weit das Konzept von Rawls überhaupt trägt,16 vergleicht Alarie damit eine politische Theorie, die sich auf soziale Systeme und menschliche Interaktionen bezieht, mit digitaler Automatisierung als technischem System, ohne auf grundsätzliche Affinitäten zwischen diesen beiden Systemformen einzugehen.

[17]

Wie die von Alarie propagierte Singularität das von Rawls angedachte Equilibrum des Rechts umsetzen soll, und wie beides sich aufeinander beziehen lässt, bleibt im Dunkeln.

3.2.

Ontologische und wissenschaftliche Grundannahmen ^

«Will man die Ontologie einer Theorie diskutieren, so stellt man damit gewisse Anforderungen an die Rahmentheorie, in der sich die Diskussion abspielt.» 17
[18]

Angesichts dieses diffusen methodischen Hintergrunds möchte ich meine Verortungs- und Bewertungskriterien offenlegen.

[19]

Diese Kriterien basieren auf wissenschaftlich-methodischen Ansätzen, die als bekannt vorausgesetzt werden können. Ein vertieftes Eingehen auf einzelne Ansätze erscheint an dieser Stelle insofern überschiessend, als sich die hier angestrebte Durchdringung und Kritik des von Alarie postulierten Singularismus des Rechts – wegen der ihm fehlenden ontologischen Positionierung – mit diesen grundlegenden Konzepten bereits überzeugend durchführen lässt.18

3.2.1.

Systemtheorie ^

[20]

Ich gehe in diesem Beitrag von einem systemtheoretischen Ansatz aus, wie er massgeblich von Niklas Luhmann geprägt und ausdifferenziert worden ist.19 Das Recht ist nach dieser Auffassung ein soziales System, das eng mit der Gesellschaft als System verknüpft ist, bzw. eines ihrer Subsystems darstellt.

[21]

Systeme bestehen aus Entitäten und Relationen als Ensemble von Komponenten, die miteinander agieren und sich von ihrer Umwelt abgrenzen, mit dieser aber gekoppelt sind.

3.2.2.

Psychische, soziale und technische (digitale/formale) Systeme ^

[22]

Ich unterscheide psychische, soziale und formale Systeme, deren letztere als technische Systeme ausgeformt werden können, und die sich jeweils vor ihrer spezifischen Umwelt als Hintergrund konstitutieren.

[23]

Psychische und soziale Systeme sind offene, formale technische hingegen geschlossene Systeme.20

3.2.3.

Rationale Entscheidungen ^

[24]

Nach March21 setzt das Fällen von rationalen Entscheidungen durch Menschen in Organisationen voraus, dass

  1. die Entscheidungsalternativen geklärt sind,
  2. die Konsequenzen und Erwartungen an die Entscheidung, sowie
  3. die Präferenzen zum Treffen von Entscheidungen22 gesetzt sind, und dass schliesslich
  4. eine Entscheidungsregel vorliegt.
[25]

Um eine rationale Entscheidung, also um korrekte und legitimierte rechtliche Entscheidungen zu treffen, genügt es also nicht, dass lediglich «Inferenzregeln» vorliegen.23

3.2.4.

Subjektivität, Intersubjektivität, Objektivität – und Abjektivität ^

[26]

Als «subjektiv» bezeichne ich eine Meinung oder Aussage, die von einer Einzelperson, auf Basis und als Ergebnis des Denkvollzugs eines psychischen Systems, getätigt wird. Eine solche Aussage kann wahr oder falsch sein, sie kann neutral oder vorurteilsbehaftet, mit oder ohne «cognitive bias» sein.

[27]

Eine subjektiv explizierte Aussage kann von anderen (psychischen Systemen) verstanden werden, da ihr Bedeutungsgehalt mit Hilfe von Sprache geteilt werden kann.24 Sie ist dann intersubjektiv nachvollziehbar.25

[28]

Eine subjektiv explizierte Aussage kann zudem objektiv richtig sein, falls sie sich objektivieren lässt. Dazu sind nur Menschen in der Lage: Objektivität ist nach Gaukroger ein charakteristischer Wesenszug des Menschen, «da nur Menschen die Fähigkeit zur Objektivität besitzen».26

[29]

«Objektiv» richtig ist eine Aussage dann, wenn die «subjektive» oder «intersubjektiv» geteilte Aussagen als Meinungen von mehreren Einzelpersonen im Rahmen einer Reflexion oder eines formalen Prozesses durch ein soziales System, nach offengelegten und intersubjektiv nachvollziehbaren Rahmenbedingungen geprüft und verifiziert worden ist, z.B. eben als rationale Entscheidung nach March.

[30]

Das kann im wissenschaftlichen Rahmen eines «Peer Review» Prozesses oder im Rahmen eines gerichtlichen Instanzenzugs27 erfolgen. Im Ergebnis wird man diese Sichtweise als «bescheidene Objektivität» einordnen können.28

3.2.4.1.
Kognitive Verzerrungen ^
[31]

In der aktuellen Diskussion wird häufig das Thema kognitiver Verzerrungen, des «cognitive bias» von menschlichen Entscheidungen in den Vordergrund gestellt.29

[32]

Demnach seien subjektive Aussagen regelmässig von persönlichen Vorurteilen oder unbegründeten Vorurteilen geprägt. Häufig wird die KI dann als Lösung propagiert, da sie, so eine weit verbreitete falsche Annahme, immer objektiv entscheide.

[33]

Dabei wird übersehen, dass es im Rahmen eines Objektivierungsverfahrens, wie z. B. dem rechtlichen Instanzenzug, in der Regel sehr einfach ist, kognitive Verzerrungen aufzudecken.

[34]

Genau das ist der eigentliche Sinn und die Aufgabe des Rechtssystems als sozialem System, nämlich rechtliche Objektivität regelmässig neu herzustellen.

[35]

Die Rechtsanwendung muss und kann nach diesem Verständnis aus prinzipiellen Gründen nie «objektiv» (als den «eigentlichen Fakten eindeutig entsprechend») sein, sollte in diesem Sinn aber immer als rationale Entscheidung30 objektivierbar sein.

[36]

Dies wird im Recht durch Interpretation und Argumentation, die Bedeutung im Einzelfall herstellt und die damit einhergehende, im demokratischen Kontext erforderliche Begründungspflicht ermöglicht.31

[37]

Die Annahme, dass KI frei von kognitiven Verzerrungen sei, überzeugt nicht, weil gerade KI-Anwendungen regelmässig damit auffallen.32 Der kognitive Bias ist zudem ein systemisches Grundproblem der KI, das sich auch nicht auf fehlerhafte Datenqualität33 reduzieren lässt.

[38]

Das verwundert deshalb nicht, weil KI-Systeme von Menschen geschaffen sind und kein Grund ersichtlich ist, warum ein von Menschen und Organisationen (als psychischen und sozialen Systemen) erschaffenes technisch-formales System fehlerfreier sein soll als die systemischen Voraussetzungen, unter denen es entstanden ist,34 erst recht, weil der Begriff der «Fehlerfreiheit» ja genau wieder von den psychischen und sozialen Systemen, also ausserhalb des KI-Systems, festgelegt wird.

[39]

Dem entsprechend versuchen KI-Anbieter mit Hilfe von «Alignment» gegenzusteuern und Compliance durch Zusatzfilter und Korrekturregeln ex post wieder herzustellen, also den zuvor wegdigitalisierten gesunden Menschenverstand nachträglich und von ausserhalb des KI-Systems wieder einzubauen.35

[40]

Damit laufen die Anbieter von KI-Systemen dem eigentlichen Problem hinterher: Bei diesem Whac-a-mole-Ansatz36 wird das Risiko nur reaktiv im Anlassfall durch menschliche Handlungen mitigiert und trotz eines enorm hohen Aufwands nie systematisch ausgemerzt.

[41]

Damit lässt sich aber keine Objektivität erzielen, die als Objektivierung ein transparentes soziales Verfahren voraussetzt, das in diesem Fall höchstens im Vorhinein als Regulierung durch objektivierbare Festlegung der Rahmenbedingungen für das eingesetzte KI-Modell mit seiner Datenbasis und den Entscheidungsregeln denkbar ist.

[42]

Das Problem entsteht durch die Realitätsblindheit von KI-Systemen.37 Wegen der Intransparenz der Entscheidungsfindung lassen sich KI-Systeme zudem diskret missbrauchen.38, 39

[43]

Für sie spricht lediglich ihr Funktionieren, soweit es sich in der Praxis bewährt,40 als funktionierende Simplifikation, die Konsens einspart41 – auf Kosten von Objektivität, die Konsens zur Objektivierung voraussetzt.

[44]

Wir werden auf dieses Thema zurückkommen, wenn ich den Begriff der «Abjektivität» als Bezeichnung für realitätsagnostische Ausgaben von KI-Systemen einführe.42

3.2.5.

Natürliche Sprachen, Fachsprachen und formale Sprachen ^

[45]

Sprachen dienen der Interaktion von Systementitäten innerhalb des Systems und der Kommunikation des Systems mit seiner Umwelt, technisch mediatisierbar, aber immer ausgeführt durch Menschen als psychische Systeme.

[46]

Es lassen sich weiters natürliche Sprachen, Fachsprachen und formale Sprachen unterscheiden, wobei formale Sprache nicht ohne Fachsprachen denkbar sind und Fachsprachen nicht ohne natürliche Sprachen.43, 44

[47]

Formale Sprachen können mit einem Kalkül versehen sein. Darunter versteht man Regeln, mit denen Schlüsse gezogen werden können.

3.2.6.

Syntax, Semantik und Pragmatik ^

[48]

Eine bedeutungsvolle Entscheidung setzt die Identifikation der Situation voraus und stimmt mit der Identität, dem Selbstverständnis und den Prinzipien der Beteiligten überein.45 Neben Mythen, Symbolen und Ritualen ist vor allem die Sprache das zentrale Werkzeug, um Bedeutung zu schaffen.46

[49]

Zur Einordnung von Sprache und Zeichen verwende ich den dreigliedrigen Zeichenbegriff nach Morris. Er unterscheidet Syntax als formale Eigenstrukturen der Zeichen und Zeichenfolgen, Semantik als inhaltliche Dimension, auf die jedes Zeichen verweist, und Pragmatik als konkreten Kontext, in dem die Zeichenfolge wirkt.47

[50]

Um die Sprache wirksam zu nutzen, ist es unerlässlich, dass die Beteiligten verstehen, wie sie Bedeutung trägt und entfaltet – und dass sie damit umgehen können.48

[51]

Als Grundlage juristischer Kompetenz49 sind die semantische und die pragmatische Komponente unerlässlich. Beide gehen digitalen Maschinen ab, die nur auf Basis syntaktischer Vorhersagen funktionieren.

3.2.7.

Enge und lose Kopplung ^

[52]

Systeme reagieren auf ihre Umwelt und sind lose gekoppelt.50 Damit ist gemeint, dass geänderte Umweltbedingungen oder die Kommunikation geänderter Systemvariationen eines Fremdsystems keine direkte Auswirkung auf das eigene Systemverhalten hat, sondern lediglich interne Abläufe und eigengesetzliche Prozesse anstösst, die eigene Handlungsoptionen aktivieren können – oder auch nicht.

[53]

Es spielen weitere interne Rahmenbedingungen der jeweiligen Organisation mit, die schliesslich zu einer angemessenen51 Entscheidungsfindung führen..

[54]

Wegen mangelnder Formalisierbarkeit und Realitätsblindheit von KI-Systemen sind sie weder in der Lage, rationale Entscheidungen nach der Definition von March zu fällen, noch können sie mangels Eigenreflexion lose an ihre Umwelt gekoppelt werden.

[55]

Es fehlen ihnen dafür eine sensorische-konzeptionelle Wahrnehmung, Eigenbewusstsein und die in Organisationen orchestrierbare Interpretationsfähigkeit psychischer Systeme. Das bedeutet, dass sie Umweltveränderungen oder Einflüsse anderer Systeme nur entsprechend ihrem fixen digitalen Interface (bei ChatGPT z. B. als «Prompts»52) übernehmen können. Ihre Varietät ist darauf beschränkt und ihre Steuerungsfähigkeit entsprechend eingeschränkt.53

4.

Argumentation von Alarie: Teil 1 – Erfolgsbeispiele ^

[56]

Untersuchen wir nun die Argumente von Alarie. Wir beginnen mit seinen Verweisen auf bisherige Erfolge beim Einsatz von Künstlicher Intelligenz.

4.1.

Erfolgsbeispiel 1: GO ^

[57]

GO ist ein japanisches Brettspiel mit klar definierten Regeln. Im Jahres 2016 gelang es dem KI-Programm DeepMind, weltweit führende GO-Spieler zu schlagen. Das wurde, wie schon zuvor der Sieg von IBM’s Schachcomputer DeepBlue über Kasparow 1996, als Durchbruch von KI-Anwendungen gefeiert.

[58]

Dieser Erfolg von GO wird von Alarie als Argument für die Fortschritte der KI instrumentalisiert, die im rechtlichen Bereich zur «Singularität des Rechts» tragen könne.

[59]

GO ist ein Spiel. Ein Spiel ist eine abgegrenzte formale Regelsammlung, auf die sich die Teilnehmer für die Dauer des Spiels einigen.54

[60]

Ein Spiel in diesem Sinn ist ein geschlossenes formales System, das über ein einfaches Systeminterface (Positionierung bzw. Repositionierung eines Spielsteins) mit seiner Aussenwelt agiert.

[61]

Der Ablauf und die Ergebnisse eines GO-Spiels sind entsprechend der Regeln subjektiv nachvollziehbar und deshalb objektivierbar. GO kann als formales System direkt digitalisiert und technisch umgesetzt werden und steht damit paradigmatisch für strikt formalisierbare Problemstellungen, die sich einfach mit KI lösen lassen.

[62]

Die anekdotische Referenz von Alarie auf einzelne Erfolge von KI-Anwendungen in GO als Spiel können nicht erklären, weshalb KI im Recht, das als soziales System in der Gesellschaft ganz andere Leistungen vollbringt, erfolgreich sein soll bzw. nach welchen Kriterien dies dann gemessen werden würde.55

[63]

Dass KI kein Selbstläufer ist, beweist der Misserfolg von IBM beim Versuch, mit dem Erfolg von DeepBlue im Rücken und mit Hilfe eines enorm hohen finanziellen Engagements, Patientenakten sinnvoll auszuwerten und damit medizinische menschliche Intelligenz mit «Dr. Watson» nachzumodellieren.56

4.2.

Erfolgsbeispiel 2: Steuerrecht als repräsentatives Beispiel? ^

[64]

Alarie führt das Steuerrecht als «illustratives» Beispiel an und behauptet, dass sich Lösungen dort auf sämtliche anderen Bereiche des Rechts direkt anwenden lassen.

4.2.1.

Steuerrecht als formalisierbares Rechtsgebiet ^

[65]

Das Steuerrecht unterscheidet sich von anderen Rechtsgebieten dadurch, dass nach Klärung der Fakten die Rechtsfolge als Steuersaldo formal und mathematisch berechnet werden kann.

[66]

In einem Steuerverfahren, das als Prozess in einem sozialen System von der Steuerbehörde angestossen wird, erfolgt zunächst eine Faktenklärung; die Tatbestandsvoraussetzungen werden dann entsprechend den Steuergesetzen als formalisiertem rechtlichen Regelwerk beurteilt.

[67]

Dieses Regelwerk ist – wie das GO-Spiel vorhin – ebenfalls formal und syntaktisch definiert: Sind die Tatbestandsvoraussetzungen geklärt, kann das Ergebnis algorithmisch und ohne weitere inhaltliche oder situationsbezogene Deutung abgeleitet werden. Sieht man von der notwendigen rechtlichen Vorklärung einmal ab, so eignet sich das Steuerrecht gut zur Formalisierung und Digitalisierung.57

[68]

In praktisch allen anderen Rechtsgebieten müssen nach Abklärung des Sachverhalts hingegen Rechtsnormen auf Basis von Rechtsprinzipien und Rechtswerten inhaltlich angewendet und intentional argumentativ verarbeitet werden. Das ist von einer KI aber nicht leistbar, weil die pragmatische und semantische Zeichendimension nicht digital abgebildet werden kann.

4.3.

Einordnung der Erfolgsbeispiele ^

4.3.1.

Wie sollen Tatbestandsvoraussetzungen geklärt werden? ^

[69]

Davon abgesehen beginnt auch die Lösung von Steuerrechtsfällen immer mit der Klärung der Fakten als Tatbestandsvoraussetzungen.

[70]

Da jede Künstliche Intelligenz als digitales System realitätsagnostisch ist, müsste Alarie zuerst erklären, wie diese eben mit den notwendigen «Fakten beschickt» werden soll. Auch Alarie wird dann, ähnlich wie Adrian,58 nicht auf die Mitwirkung von Menschen zur Aufbereitung von Rechtsinformation verzichten können.

[71]

Damit ist aber die Idee des rechtlichen Singularismus als Vision einer eigenautonomen digitalen Automatisierung als Trugbild enttarnt: Es wäre eben doch die intellektuell-juristische und von Menschen geleistete und intentional geprägte Geistesleistung entscheidend, um den digitalen Singularismus durchzusetzen. Damit ist die angestrebte eigenautonome Singularität des Rechts als Lösung, bei der eben doch Menschen die eigentlichen Entscheidungsvoraussetzungen schaffen, nicht zu erreichen.

4.3.2.

«Futurehype» als Argumentationsmuster ^

[72]

Dublin hat das verkürzende und irreführende Argumentationsmuster sorgfältig herausgearbeitet, das neben Alarie auch Adrian zur Propagierung von Künstlicher Intelligenz im Recht anwenden.59 Er erläutert es am Beispiel eines Artikels von Alan Turing über die Frage, ob Computer denken können:60

  1. Simplifizierung des Problems: Zunächst wird vom eigentlichen Problem durch eine starke Vereinfachung abstrahiert. Es wird auf ein anderes, einfacher zu lösendes Problem heruntergebrochen. Nach Turing kann die Frage, ob Computer denken können, damit beantwortet werden, ob sie denken simulieren können, was zwar eine ganz andere Frage ist, aber einfacher umgesetzt werden kann.
  2. Verweis auf die Zukunft: Dann wird auf Fortschritte verwiesen, die es bei der Lösung dieser einfacheren Probleme gibt und darauf, dass diese sich noch weiter entwickeln werden. Dabei wird auch gerne statistisch argumentiert: Wenn eine KI schon jetzt in x Prozent aller Fälle Denken gut simuliert oder richtig liegt mit der Vorhersage von rechtlichen Entscheidungen, wie wird das dann erst in y Jahren ausschauen? Dabei wird aber nur die geschrumpfte Frage behandelt und kann das Fortschreiben in die Zukunft natürlich beliebig verlängert werden, falls sich selbst diese einfachen Erfolge nicht so wie gewünscht einstellen.
  3. Herabwürdigung von kritischen Einwänden: Dieser Schritt ist optional, kommt aber bei Alarie und anderen «Futurologen» regelmässig vor – es werden etwaige Kritiker an dieser Argumentation anlasslos als Neinsager und Technologiefeinde denunziert.
[73]

Nicht nur Alarie wendet dieses Argumentationsmuster der «vereinfachten Zukunftsreferenz» an, es tritt in ähnlicher Form auch bei Adrian61 oder als prophetisches Motto bei Rechtsinformatik-Konferenzen auf.62

[74]

Die eigentlich notwendige Diskussion über die Frage, wozu und wie KI für das Recht in Übereinstimmung mit den Werten und Prinzipien des Rechts und der Demokratie für diese nutzbar gemacht werden kann, bleibt dabei aussen vor.

4.3.3.

Futurologische Vision anstelle wissenschaftlicher Diskussion ^

[75]

Alarie geht auf die eigentliche Fragestellung, wie das ganze Rechtssystem mit seiner inhaltlichen Entscheidungsfindungs- und Rechtssetzungskompetenz digitalisiert und automatisiert werden könnte, nicht weiter ein. Stattdessen verweist er auf GO und auf Berechnungsoptionen im Steuerrecht als «Lösungsbeispiele».

[76]

Er reduziert damit eine komplexe Fragestellung («Sind Rechtssetzung und Rechtsgestaltung durch eine digitale Maschine leistbar – und wenn ja: Unter welchen Voraussetzungen und Bedingungen?») auf banale («Wie müssen Daten aufbereitet werden, damit Steuerberechnungen automatisiert werden können?») und verweist danach, in einem zweiten Schritt, auf die Zukunft, die dann die eigentliche Lösungskompetenz bringen soll.

[77]

Nach dem schon erwähnten Law of Requisite Variety von Ashby muss die Varietät eines steuernden Systems mindestens ebenso hoch sein wie die Varietät des auftretenden Steuerungsproblems, damit eine Steuerung möglich ist. Nun lassen sich weder mit einem GO-Spiel noch mit einem Steuerberechnungsprogramm Rechtsfälle sinnvoll lösen.

[78]

Mit dem zweiten Schritt als Verweis in die Zukunft entzieht er seine Behauptung zudem einer möglichen Nachprüfung und Falsifizierbarkeit, da sich heute nicht feststellen lässt, was morgen möglich sein könnte.

[79]

Er verunmöglicht damit nicht nur jede Kritik, er beschuldigt auch noch alle, die möglicherweise eine solche äussern könnten, als Neinsager und Pessimisten.

[80]

Alarie entlarvt seine eigene Vorgehensweise, wenn er schreibt:63

«In this contribution, I argue that the naysayers will continue to be correct until they are, inevitably, demonstrated empirically to be incorrect.»
[81]

An dieser Stelle offenbart Alarie, dass die «Neinsager» derzeit eigentlich recht haben, er also mit seinen Ausführungen falsch liegt und rein spekulative Thesen verkündet, aber eben nur «derzeit» und nur solange, bis eines Tages bewiesen sein wird, dass er doch recht gehabt hätte.

[82]

Im Ergebnis entzieht sich Alarie so jeder wissenschaftlich-rationalen Diskussion, die immer nur in einer gemeinsamen Gegenwart stattfinden kann.

5.

Argumentation von Alarie: Teil 2 – Erfolgsvoraussetzungen ^

[83]

Wie kommt Alarie nun von zwei einfachen Anwendungsbeispielen der KI zu seiner These, dass das ganze Rechtssystem bald von der KI abgelöst werden könne, inklusive der Rechtserzeugung?

5.1.

Kostenreduktion als Motivation ^

[84]

Die Vision, die Alarie antreibt, ist die «nearly costless» digitale Kommunikation und des damit einhergehenden Überflusses an Daten:

«The implications for law of an abundance of data of all kinds and dramatically more effective statistical tools are becoming visible.» 64
[85]

Alarie beschreibt die von ihm erwarteten Konsequenzen der «rechtlichen Singularität» so:

«the accumulation of massively more data and dramatically improved methods of inference make legal uncertainty obsolete» 65
[86]

Alarie ist sich seiner Sache und der positiven Auswirkungen sicher, denn mit dieser juristischen Singularität werde jede Rechtsunsicherheit beseitigt. Es entstehe eine nahtlose Rechtsordnung, die alle Rechtsbereiche betreffe und jederzeit in Echtzeit verfügbar sei:

The legal singularity contemplates the elimination of legal uncertainty and the emergence of a seamless legal order, universally accessible in real-time. 66
[87]

Das hört sich verheissungsvoll an: Diese Aussagen erinnern aber auch an die Alchemie des Mittelalters, in dem der Stein der Weisen67 gesucht wurde, um ein Opus Magnum zu erzielen und jeden minderwertigen Ausgangsstoff in Gold zu verwandeln zu können.

[88]

Es würden im von Alarie beschriebenen Fall psychische Systeme und dadurch getragene soziale Systeme durch digitalisierte, technisch-formale Systeme abgelöst.

[89]

Ist das überhaupt möglich? Falls ja: Mit welchen Konsequenzen und Einschränkungen?

5.2.

Datenakkumulation und Inferenzregeln als Erfolgsvoraussetzung ^

[90]

Seine Argumentation fusst darauf, dass

  1. mit der Erfassung weiterer «Daten» und
  2. dem Vorliegen von «Inferenzregeln»
[91]

die digitale rechtliche Singularität als umfassende digitale Rechtsfindungs- und Rechtssetzungsmaschinerie umgesetzt werden könne.

5.3.

Erfolgsvoraussetzung 1: Datenakkumulation ^

[92]

Alarie führt die «massive Datenakkumulation» als eine der beiden Erfolgsvoraussetzungen für die rechtliche Singularität ein:68

«a significantly greater quantification of observable phenomena in the world (‹more data›)» 69
[93]

Er lässt dabei offen, wer wie welche Phänomene beobachten wird und wie daraus Daten entstehen sollen. Er möchte so ein formal-technisches System einrichten, das ein soziales, auf natürlich- bzw. fachsprachlicher Kommunikation basierendes System ablösen soll.

[94]

Daraus ergibt sich logisch, dass wir digital einlesbare Daten (1) benötigen, die als Rechtsnormen (Gesetze, Verwaltungsakte, Urteile) selektiert und aufbereitet werden. Und wir müssen weiters klären, wie (2) Fakten (Rechtsfälle) von der Umwelt ausserhalb des Rechtssystems als Daten in das System gelangen sollen.

5.3.1.

Lost in Data? ^

[95]

Vorweg taucht aber die Frage auf, inwiefern die von Alarie eingeforderte Zunahme der Datenmenge überhaupt hilfreich sein kann.

[96]

Wer jemals in einem juristischen Examen geschwitzt hat bzw. wer «legal reasoning» professionell betreibt, wird mir zustimmen, dass das Herausfinden der zentralen Themen eines Rechtsfalles bzw. der zentralen Argumentation durch das Abstrahieren und Weglassen von unnötigen Details erfolgt.

Legal Reasoning kann so gesehen als intelligentes, fachkundiges Filtern verstanden werden, das Daten eliminiert und nach bestimmten Regeln zu relevanter Information kondensiert.
[97]

Zwar müssen zur Vorbereitung der eigentlichen Falllösung regelmässig wichtige Informationen, hinsichtlich des Sachverhalts oder anzuwendender spezieller Rechtsnormen (z.B. mit Auslandsbezug) ergänzt bzw. herbeigeschafft werden.70

[98]

Mit einer Vergrösserung der Datenmenge alleine lässt sich aber kein Rechtsfall lösen.

[99]

Es ist im Gegenteil zu befürchten, dass Datenüberschuss die «rechtliche Entropie» erhöht und neben einem erhöhten «Rechenaufwand» zu fragwürdigen und erratischen Ergebnissen führen wird.71

5.3.2.

Digitale Daten sind bedeutungslose Speicherstellen – ad (1) ^

[100]

Als Daten erfasste Rechtsnormen stellen lediglich binäre Speicherplätze in einem Speichersystem dar.

[101]

Diese Speicherstellen und der repräsentierte Text sind für sich genommen bedeutungslose syntaktische Zeichenfolgen – die materialisierte formale Hülle von Bedeutung – der kein Erkenntniswert zukommt.

[102]

Zeichen erhalten erst dadurch Bedeutung, indem sie in einem bestimmten Zusammenhang auf das «eigentlich gemeinte» verweisen und so quasi von ihrer Innenseite her mit Bezug auf das Verwiesene verwendet werden.

[103]

Rechtsbegriffe wie «Vertrag», «Schuld» oder «Zurechnung» entfalten erst durch die intentionale Verwendung in einem konkreten Kontext die Bedeutung, die ihnen von Juristinnen und Juristen und den davon betroffenen Menschen zugeschrieben wird.

[104]

Im Unterschied zu Information sind Daten kontextfrei und enthalten keine Antworten auf konkrete Fragestellungen.72 In einer digitalen Maschine ist aber niemand, der intentional verstehen könnte, auf was die Daten bzw. die in den Daten abgelegten Texte verweisen, es fehlt jede Bedeutung.

[105]

Es taucht hier das gleiche Problem auf wie bei der formalen rechtlichen Wissensrepräsentation, bei digitalen Ontologien. Dort wurde versucht «Bedeutung» (Semantik) syntaktisch durch Verweise auf andere digitale Begriffe (als digital gespeicherter Textfragmente) quasi durch die Hintertür zu erschliessen.

[106]

Das entfaltet die gleiche Wirkung wie der Versuch des Barons von Münchhausen, sich am eigenen Haarschopf aus dem Sumpf zu ziehen: Es funktioniert einfach nicht.73 Erst wenn ein/e Beobachter/in da ist, entsteht Sinn und Bedeutung. Entsprechend wird doch die «intellektuelle» (also menschliche) «kontext-bezogene» Erschliessung für erforderlich gehalten.74

[107]

Freilich ist auch Alarie nicht der einzige, der der panpsychischen Idee anhaftet, dass die blosse digitale Speicherung von bedeutungsvollen Texten als Daten die darin (nur für Menschen zugängliche) Bedeutung mitspeichert und verarbeitbar macht, auch wenn er es nicht so lyrisch ausdrückt wie andere.75

[108]

Die reine automatisierte formale algorithmische Bearbeitung von Speicherstellen kann deshalb aus sich heraus weder Inferenzregeln noch einen Sinn generieren, selbst wenn die bearbeiteten Speicherstellen für Menschen sinnvolle Texte beinhalten.

5.3.3.

Wie kommen Fakten in das System – Einspeisung aus der Realität – ad (2) ^

[109]

Der klassischen Frage der methodischen Rechtsanwendung, also der Frage, wie Rechtsnormen interpretiert werden müssen, um korrekt auf Sachverhalte angewendet zu werden, und wie umgekehrt Sachverhaltsfragen konkretisiert werden können, um die richtigen Rechtsentscheidungen treffen zu können, weicht Alarie nicht einmal aus – er ignoriert sie schlichtweg.76

5.3.3.1.
Das Orakel-Problem ^
[110]

Selbst Alarie merkt an, dass es nach Erreichung der Singularität gelegentlich Diskussionen über Fakten geben könne.77

[111]

Da das Recht Probleme der physischen und sozialen Realität ordnen soll und diese Fakten regelmässig von Menschen nach rechtlichen Kriterien aufbereitet werden müssen, stellt das allerdings kein marginales sondern ein Grundproblem seines Ansatzes dar.

[112]

Digitale Systeme sind nämlich grundsätzlich realitätsblind bzw. realitätsagnostisch.

[113]

Bei Blockchains wird das als «Orakel-Problem» bezeichnet: Eine technische Komponente soll als «Orakel» die Sachlage klären. Auch die Verheissungen der Blockchain, die eine ideale Lösung für fast gar nichts darstellt, bauen deshalb auf diesem sandigen Untergrund, wie Fakten als Daten korrekt eingelesen werden können.78

[114]

Das «Orakel-Problem» betrifft auch KI-Anwendungen. Damit ist gemeint, dass so exakt und treffsicher sie auch arbeiten mögen, sie selber nur über ein «Orakel» Zugriff auf Fakten aus der Umweltrealität sozialer und psychischer Systeme erhalten.

[115]

Das wird in der Regel ein rechtskundiger Mensch sein, der ein Fakt der Systemumwelt als rechtliches Fakt maschinennutzbar übersetzt. Nach Adrian sollen z. B. menschliche Zuarbeiter Urteile und Rechtsnormen maschinengerecht aufbereiten.

[116]

Wenn wir jede menschliche Mitwirkung als subjektiv verstehen, so wird auch jedes technische System, das von Menschen erfasste und vorbereitete Daten nutzt, subjektiv sein und scheitert so das Trugbild einer objektiven (im Sinne von «menschenfreier») Rechtsgewinnung.

5.3.4.

Beschränkungen durch Datenmodelle (Wissensrepräsentation) ^

[117]

Selbst wenn es möglich wäre, alle relevanten Daten fortlaufend aktualisiert und maschinengerecht im System zu hinterlegen, dann müssten diese in einer bestimmten digitalen Datenstruktur bzw. einer Wissensrepräsentation erfasst werden.

[118]

Rechtliche Wissensrepräsentation beschreibt, wie rechtsrelevante Daten formalisiert und in ein formal-ontologisches digitales Modell eingefügt werden können.

[119]

Da jede Wissensrepräsentation eine formale Reduktion bewirkt, müssen die dadurch bewirkten Grenzen und resultierenden Eigengesetzlichkeiten hinsichtlich Ersterfassung und Aktualisierung berücksichtigt werden.79

5.3.4.1.
Abbildungsfunktion ^
[120]

Dazu zählt, dass Formalisierung immer eine Verkürzung des realen, zugrundeliegenden Sachverhalts bewirkt. Der modellierte Bereich ist immer und zwangsläufig eine Untermenge des sozialen Systems Recht, ein Ausschnitt der Realität.

[121]

Die Abbildungsfunktion, also die Übertragung der Elemente der zugrundeliegenden Realität in das Modell liegt logisch ausserhalb des eigentlichen KI-Modells: Das digitale System, das angefertigt werden soll, müsste dem sozialen System Recht nachmodelliert werden. Genau das muss aber von ausserhalb des Modells erfolgen.

[122]

Wir stehen hier also wieder vor dem gleichen Problem wie oben: Diese Zuordnung, die Umwandlung von Inhalt in Form,80 muss durch Menschen als psychische Systeme erfolgen, eine autonome Singularität des Rechts ist damit unmöglich.

5.3.4.2.
Teilmenge ^
[123]

Zur «Veranschaulichung» hat Alarie das Steuerrecht ausgewählt. Dieser Ansatz sei auf jedes Rechtsgebiet übertragbar. Das Steuerrecht ist leichter formalisierbar als andere Rechtsbereiche, da es mit einfach formalisierbaren Begriffen und letztendlich mit Zahlen hantiert. Den Nachweis dafür, dass eine einheitliche Wissensmodellierung über alle Rechtsgebiete einheitlich möglich ist, bleibt er schuldig.81

5.4.

Erfolgsvoraussetzung 2: Inferenzregeln ^

[124]

Neben der Datenakkumulation sollen nach Alarie Inferenzen die Singularität des Rechts ermöglichen. Damit meint er die Verknüpfung der (statischen) Daten, als Schlussfolgerung, durch die algorithmisch eine rechtliche Entscheidung getroffen oder Recht sogar neu gesetzt werden soll.

[125]

Alarie erklärt nicht, woher diese Inferenzen kommen und wie sie gewonnen werden. Gehen wir einmal – die Idee der Singularität wohlwollend unterstützend – davon aus, dass die Inferenzen algorithmisch aus den Daten abgeleitet werden können.

5.4.1.

Textimmanente Korrelationen und Koinzidenzen bewirken keine rechtliche Kausalität ^

[126]

In diesem Fall würden sich die resultierenden Bezüge (Inferenzen) auf statistische Koinzidenzen in den Daten beziehen, die mit der Realität82 übereinstimmen können – oder auch nicht.

[127]

Eine rechtlich ursächliche Kausalität lässt sich aus Bezügen in den Daten aber nicht ableiten, weil Kausalität aus der Realität mit Erfahrungswissen abgeleitet werden muss, die in repräsentativen Beschreibungen über die Realität fehlt.83

[128]

So wenig wie in einem Foto die akustischen Verhältnisse des abgebildeten Sujets während der Aufnahme hinterlegt und ausleitbar sind, so wenig ist in einem Rechtstext der intentionale Gedankengang und seine Bedeutung im Kontext sowie seine Funktion und Wirkung als kausaler Agent des Rechtssystems hinterlegt und algorithmisch verwertbar.

[129]

Ohne eine rechtlich sinnvolle kausale Interferenz würde das KI-System aber lediglich wahrscheinliche Aussagen treffen, die zufällig stimmen können, genauso gut aber vollkommen falsch sein können,84 denen aber die intersubjektive Nachvollziehbarkeit fehlt, die rechtliche Entscheidungen konstituiert.

5.4.2.

Widerspruchsfreiheit ^

[130]

Nehmen wir dennoch an, wir könnten trotz der geschilderten Einwände alle Daten in einem formalen Modell erfassen – mit den passenden Interferenzregeln.

[131]

Erreichen wir damit die herbeigesehnte «elimination of legal uncertainty»?

[132]

Nein, denn nach Gödel können wir in einem formalen System nicht nachweisen, dass es widerspruchsfrei ist.85 Selbst wenn wir eine formalisierte digitale Rechtsbasis und Interferenzregeln errichtet hätten, bedeutet dies noch nicht, dass sie widerspruchsfrei ist. Wir hätten immer noch einen «Besen im System».86

5.4.3.

Halteproblem ^

[133]

Das Halteproblem in der theoretischen Informatik besagt, dass sich bei einem komplexeren digitalen Algorithmus nicht vorhersagen lässt, ob er bei der Verarbeitung von Daten unvermutet stehen bleibt.87

[134]

Es setzt der digitalen Verarbeitbarkeit von Daten theoretische Grenzen, die in der Praxis freilich häufiger durch beschränkte Ressourcen,88 die hohe Komplexität von IT-Infrastrukturen, Schwächen im Betrieb oder durch bösartige Angriffe zu Tage treten.

[135]

Der Ausfall von IT-Systemen im lokalen und globalen Kontext ist heute fixer Bestandteil unserer Alltagswahrnehmung. Es wird wegen dieser theoretischen und praktischen Beschränkungen immer schwieriger, digitale Systemlösungen zu entwickeln, die jederzeit verfügbar sind und immer fehlerfrei funktionieren.

[136]

Für ein digitalisiertes Recht bedeutet dies, dass das «singularisierte Recht» trotz optimaler Betriebsprozesse keineswegs immer verfügbar sein würde, sondern jederzeit für eine unbestimmte Zeit ausfallen kann.

5.4.4.

Unvorhersagbarkeitsproblem ^

«I know I‘ve made some very poor decisions recently, but I can give you my complete assurance that my work will be back to normal.» 89
[137]

So der Bordcomputer HAL im Science-Fiction «2001: A Space Odysseey», der seine Besatzung tötet, da diese ihn wegen seiner Fehlerhaftigkeit abschalten möchte.90

[138]

Entgegen dieser Ansage führen die drei genannten theoretischen Beschränkungen, (1) fehlende Kausalität, (2) Widersprüchlichkeit und (3) unvorhersehbare Beendigung zusammen mit den schon bekannten praktischen Beschränkungen wie (4) Maschinenintuition, (5) Maschinenhalluzination und (6) KI-Systembias zu unvermeidbar erratischen Ausgaben eines KI-Systems.

[139]

Trotz vorbeugender und nachgeschalteter Fehlerbereinigungsmassnahmen können grob fehlerhafte Ausgaben eines KI-Systems nie grundsätzlich ausgeschlossen werden.

6.

Abjektivität – ein neuer Begriff und seine Bedeutung ^

[140]

Im Rahmen dieses Beitrags habe ich Eigenschaften digitaler KI-Anwendungen beschrieben, die daraus resultieren, dass sie anders als psychische und soziale Systeme funktionieren: Sie sind realitäts- und situationsagnostisch, semantikfrei und als statistische Maschinen korrelations- statt kausalgetrieben.

[141]

Um diese Eigenschaften von KI-Systemen einheitlich fassen und weiter untersuchen zu können, führe ich den Begriff der «Abjektivität» als eigenen ontologischen Referenzrahmen vor, um solche daten- und algorithmisch getriebenen text-, aussage- und entscheidungsgenerierender KI-Systeme zu kennzeichnen.91

[142]

Abjektivität bezeichnet Ausgaben formal-technischer Systeme, so wie Subjektivität die Aussagen psychischer und Objektivität die Aussagen sozialer Systeme bezeichnet.

[143]

Abjektive Aussagen sind erratisch und nicht objektiv, weil ihre algorithmische Textgenerierung keine Begründung vorsieht und ohne Argumentation keine auf Intersubjektivität bauende Objektivierung möglich ist.

[144]

Falls abjektive Aussagen rechtlichen Ansprüchen wie Gesetzesbezogenheit, Sachverstandsadäquatheit, Stringenz, Rechtsprechungskontinuität, etc. genügen sollen, müssen sie erst durch den Prozess des subjektiven intentionalen Nachvollzugs, der intersubjektiven Erörterung und schliesslich des Objektivierungsprozesses, kurz durch den ganz normalen, menschlich getriebenen Prozess der in Demokratien üblichen Rechtsfindung, Rechtsentscheidung bzw. Rechtssetzung hindurchlaufen.

[145]

Sie haben sonst wegen des unvermeidbaren Datenbias und wegen des unvermeidbaren systemisch-algorithmischem Bias den Verdacht der Inkorrektheit und das Problem mangelnder bzw. fehlender Argumentation grundsätzlich gegen sich gerichtet und müssen immer – und gerade wenn sie sich plausibel «anfühlen» – wegen ihrer potenziellen Toxizität so sorgfältig behandelt und geprüft werden, als würden sie von einer Menge tippender Affen oder von Wahrscheinlichkeitspapageien stammen.92

7.

Resümee ^

[146]

Eine Singularität des Rechts, wie sie Alarie anstrebt, ist auf Basis seiner Äusserungen nicht möglich – und erst recht nicht wünschenswert.

[147]

Um Kosten einzusparen und um durch Automatisierung effektiver entscheiden zu können, möchte er ein System einführen, das so komplex ist, dass es von Menschen nicht mehr verstanden werden kann.93 Menschen als psychische und die Gesellschaft als soziales System würden vollständig einer algokratischen technisch-formalen Verhaltensinstanz unterworfen, da nur mehr die Maschinen selbst die von ihnen selbst verwaltete Eigenkomplexität bewältigen könnten.

[148]

«Recht», das von Menschen nicht mehr verstanden und nachvollzogen werden kann, willkürlicher, da unbegründeter Zwang gegenüber Menschen – das hat mit grundlegenden Rechtsprinzipien nichts zu tun. Es ist vielmehr Ausdruck einer Dystopie des Rechts.

[149]

Es ist tragisch, wie weit seine Ausführungen und jene von Adrian,94 dass Semantik (Bedeutung) eine Illusion sei, sich als abstrakte spekulative Aussagen von jeder realen rechtlichen Lebensumwelt entfernt haben:95 So wäre es vermessen, einer von einer rechtlichen Entscheidung betroffenen Person zu sagen, dass die angeordnete Geldstrafe oder gar eine lebenslange Haftstrafe für sie eigentlich gar keine Bedeutung hätte, weil Bedeutung nicht existiere.

[150]

Menschen haben im Unterschied zu modernsten KI-Systemen keine Probleme damit, Sinn zu erkennen: Wir wissen im Alltag und im beruflichen Kontext genau, ob wir etwas ganz, teilweise oder gar nicht verstanden haben und was das für uns und andere bedeutet.

[151]

Die Idee der rechtlichen Singularität ist ein Beispiel dafür, wie zunehmend menschlich geprägter Sinn und Bedeutung aus dem Recht verbannt werden sollen. Solche Konzepte haben mit rationalen, objektiven Entscheidungen nichts zu tun: Sie binden als in die Zukunft verweisende Memes lediglich Denkressourcen, die besser im Jetzt zur Lösung konkreter Probleme eingesetzt werden sollten.

[152]

Sie von der Rechtsgemeinschaft unwidersprochen zu lassen, erinnert an die Banalität des Bösen, die Arendt im Rahmen des Eichmann Prozesses diagnostizierte96 und auf deren Präsenz im akademischen Kontext Harvey97 hinweist.98

[153]

Dem muss eine werteorientierte inhaltliche Rechtsauffassung entgegengehalten werden, die vom Menschen als Massstab ausgeht und unabhängig von ökonomischen Zwängen oder intellektuellen Trends zu diesem wieder hinfindet.

[154]

Der Mensch ist auch im digitalen Zeitalter das Mass aller Dinge und sollte es bleiben.99

[155]

Entsprechend muss KI gerade im Umfeld des Rechts so reguliert werden, wie es einer demokratischen Rechtsordnung zusteht, nämlich unter Nutzung technischer Standardisierung und mit voller Transparenz hinsichtlich der zugrunde gelegten Daten und Algorithmen.

[156]

Dazu gibt es bereits konkrete Grundlagen, wie z.B .das «Standard Model Process for Addressing Ethical Concerns during System Design» (IEEE 7000-2021),100 die zeigen, wie ethische Standards digitaler Systeme werteorientiert und effizient umgesetzt werden, ohne auf die Zukunft zu verweisen und den Menschen wegblenden zu müssen.

  1. 1 Aktuell: Lachmayer, Friedrich/Cyras, Vytautas, Essays on the Visualisation of Legal Informatics (2023).
  2. 2 Vgl Schweighofer, Erich, Rechtsinformatik und Wissensrepräsentation (1999) S 93f: «Es ist eine bekannte Tatsache, dass juristische Anwendungen in der AI einige Mängel in dieser Hinsicht haben. In dieser Untersuchung kann nicht auf diese Probleme eingegangen werden, sondern die Behandlung ist auf die Methoden zur Formalisierung des Rechtsbereichs beschränkt.» Das Thema allgemein anpackend: Heylighen, Francis, Representation and Change. A Metarepresentational Framework for the Foundations of Physical and Cognitive Science (1990).
  3. 3 Zum Begriff: Meder, Stephan, Rechtsmaschinen (2020) S 127ff.
  4. 4 Alarie, Benjamin, The Path of the Law: Toward Legal Singularity, 27.05.2016.
  5. 5 Über Laplace vgl Wikipedia, https://de.wikipedia.org/wiki/Pierre-Simon_Laplace, aufgerufen am 05.05.2023.
  6. 6 Laplacescher Dämon, Wikipedia, https://de.wikipedia.org/wiki/Laplacescher_D%C3%A4mon, aufgerufen am 05.05.2023.
  7. 7 Benjamin Alarie, Professor & Osler Chair in Business Law, https://www.law.utoronto.ca/faculty-staff/full-time-faculty/benjamin-alarie.
  8. 8 Alarie, aaO, S 3.
  9. 9 Hervorhebungen und Einfügungen durch PE.
  10. 10 Mit Unterscheidungen beginnen aber wissenschaftliche Tätigkeit und Erkenntnisgewinn, vgl. dazu «Draw a distinction!» in Spencer-Brown, George, Laws of form (1969).
  11. 11 Alarie, aaO, S 1.
  12. 12 Über Wendell-Holmes: Wikipedia, https://de.wikipedia.org/wiki/Oliver_Wendell_Holmes,_Jr._, abgerufen am 05. Mai 2023.
  13. 13 Das ist m. E. einfach falsch, zumindest aber zu stark vereinfachend. Vgl. dazu mit einer differenzierten Analyse und systematischen Unterscheidung der verschiedenen Funktionen und Aufgaben des Rechtssystems als Legislative, Exekutive, Judikative und der eigentlichen Rechtswissenschaft: Ballweg, Ottmar, Rechtswissenschaft und Jurisprudenz (1970).
  14. 14 Einerseits liefert eine Vorhersage keine Gewähr für Richtigkeit, andererseits ermöglicht eine Vorhersage nicht, selbst das Vorhergesagte bewirken zu können. Vor allem aber verweist eine Vorhersage in die Zukunft und löst kein konkretes Problem.
  15. 15 Rawls, John, A Theory of Justice (1971).
  16. 16 So kann z. B. bezweifelt werden, ob und wie sich so ein Equilibrium tatsächlich einstellen würde: vgl. dazu die Kommentare auf Wikipedia (https://en.wikipedia.org/wiki/A_Theory_of_Justice, abgerufen am 05.05.2023), insbesondere: Sen, Amartya, Inequality Reexamined (1992).
  17. 17 Quine, William van Orman, Ontologische Relativität, in Ontologische Relativität und andere Schriften (1975), (S 87).
  18. 18 Also denkökomisch angebracht ist, vgl. dazu Ockham‘s Razor («entia non sunt multiplicanda praeter necessitatem», https://www.spektrum.de/lexikon/philosophie/ockham-s-razor/1466) und Mach‘s Aussagen zur Wissenschaft als «Minimumaufgabe»: Mach, Ernst, Die Mechanik in ihrer Entwicklung (1883) S 461.
  19. 19 Luhmann, Niklas, Das Recht der Gesellschaft (1995).
  20. 20 Skeptisch zur Frage inwiefern formale Systeme («formale Entscheidungsrationalität») Probleme von offenen Systemen lösen können: Meder, aaO, S 138.
  21. 21 March, James Gardner, A Primer on Decision Making Free Press (1984).
  22. 22 March, aaO, S 2: «The Logic of Consequence».
  23. 23 Wie Alarie annimmt, dazu ausführlich unten 5.3, Erfolgsvoraussetzung 2: Inferenzregeln.
  24. 24 Zum philosophischen Hintergrund vgl Buber, Martin, Ich und Du (1923).
  25. 25 Zur Bedeutung von Intersubjektivät als wissenschaftlicher Textqualität, Torsten, Steinhoff, Wissenschaftliche Textkompetenz (2007) S 112-116.
  26. 26 Stephen, Gaukroger, Objektivität – Ein Problem und seine Karriere (2017) S 7.
  27. 27 Luhmann, Niklas, Legitimation durch Verfahren6 (2001).
  28. 28 Entsprechend der «modest objectivity» nach Dworkin oder Greenawalt. Vgl. dazu Leiter, Brian, Objectivity and the Problems of Jurisprudence (1992) S 201.
  29. 29 Zugrundelegt 1972 von Kahneman, Daniel/Taversky, Amos, Subjective probability: A judgment of representativeness, Cognitive Psychology 3, 430. Aktuell vgl Kahneman, Daniel, Noise: A Flaw in Human Judgement (2022).
  30. 30 March, A Primer on Decision Making, aaO, S 1 ff.
  31. 31 Sieckmann, Jan-Reinhard, Argumentation und demokratische Legitimation, in Argumentation und politische Legitimation (2006), 57.
  32. 32 Vgl z.B. die fehlerhafte Klassifizierung von Menschen als Gorillas durch Google: https://www.bbc.com/news/technology-33347866, abgerufen am 05.05.2023.
  33. 33 Vgl. dazu « There’s More to AI Bias Than Biased Data, NIST Report Highlights», https://www.nist.gov/news-events/news/2022/03/theres-more-ai-bias-biased-data-nist-report-highlights, mit Verweis auf: Schwartz, Reva/Vassilev, Apostol/Greene, Kristen/Perine, Lori/Burt, Andrew/Hall, Patrick: Towards a Standard for Identifying and Managing Bias in Artificial Intelligence, NIST Special Publication 1270, https://doi.org/10.6028/NIST.SP.1270, National Institute of Standards and Technology, März 2020, https://nvlpubs.nist.gov/nistpubs/SpecialPublications/NIST.SP.1270.pdf, abgerufen am 05.05.2023.
  34. 34 Zu zusätzlichen Beschränkungen formaler Systeme siehe unten 5.2.4 Beschränkungen durch Datenmodelle (Wissensrepräsentation).
  35. 35 «Wie Millionen Menschen für die KI schuften», https://netzpolitik.org/2023/datenarbeit-wie-millionen-menschen-fuer-die-ki-schuften/, abgerufen am 05.05.2023.
  36. 36 Whac-A-Mole, Wikipedia, https://de.wikipedia.org/wiki/Whac-A-Mole, aufgerufen am 05.05.2023.
  37. 37 Unterhaltsame Beispiele finden sich bei Maggiori, Emmanuel, ChatGPT fails, https://emaggiori.com/chatgpt-fails, abgerufen am 05.05.2023.
  38. 38 Vgl dazu den «Octopus-Test», der auf die Unterscheidung von Form und Bedeutung (Syntax und Semantik bzw. Pragmatik) abstellt: in Bender, Emily M./Koller, Alexander, Climbing towards NLU: On Meaning, Form, and Understanding in the Age of Data, in Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics (2020), 5185 (S 5188).
  39. 39 Vgl dazu z. B. Heikkilä, Melissan, Drei Gründe, warum KI-Chatbots eine Sicherheitskatastrophe sind, https://www.heise.de/hintergrund/Drei-Gruende-warum-KI-Chatbots-eine-Sicherheitskatastrophe-sind-8933941.html, abgerufen am 05.05.2023.
  40. 40 Nassehi, Armin, Muster: Theorie der digitalen Gesellschaft (2019) S 196.
  41. 41 Nassehi, aaO, S 205, mit Verweis auf Luhmann, Niklas, Die Gesellschaft der Gesellschaft (1998) S 524 und 518.
  42. 42 Ausführlich zur Frage Subjektivität, Objektivität und Abjektivität unten 6: Abjektivität – ein neuer Begriff und seine Bedeutung.
  43. 43 «The formal language is born from the womb of the informal» (Hervorhebung im Original), Barfield, Owen, The Rediscovery of Meaning (2013) S 197.
  44. 44 Einen Überblick zu mit dieser Aussage konformen und zu abweichenden Konzepten bietet Hofweber, Thomas, Logic and Ontology, Stanford Encyclopedia of Philosophy, 13.03.2023.
  45. 45 March, aaO, S 207.
  46. 46 March, aaO, S 211.
  47. 47 Morris, Charles William, Grundlagen der Zeichentheorie, Hanser (1972).
  48. 48 Zur juristischen Rhetorik als Grundlage des Rechts: Ballweg, Ottmar, Rhetorische Rechtstheorie (1982).
  49. 49 March, aaO, S 212 f.
  50. 50 March, aaO, S 192 ff.
  51. 51 March, aaO, S 58: «The Logic of Appropriateness».
  52. 52 Vgl https://community.openai.com/c/prompting/8, abgerufen am 05.05.2023.
  53. 53 «Law of Requisite Variety»: Ashby, William Ross, An Introduction to Cybernetics (1956) S 202-218. Nach Ashby‘s Law muss die die Varietät des steuernden Systems grösser als die der auftretenden Störung sein, damit eine Steuerung möglich ist.
  54. 54 Im Unterschied zu «infinite games» im realen Leben, vgl. dazu Sinek, Simon, The Infinite Game (2020). Mit Bezug auf Carse, James, Finite and Infinite Games (2013).
  55. 55 Vgl. Meder, aaO, S 133, zur Frage nach dem Unterschied von Schach und Recht.
  56. 56 Ebenhoch, Peter, Die Zipperlein des Dr. Watson. Dumm, wie Digitalisierung scheitern kann https://agile-advisor.net/businessagility/die-zipperlein-des-drwatson/. Aufgerufen am 05.05.2023.
  57. 57 Der Verfasser weiss dies aus erster Hand, hat er doch zusammen mit Felix Gantner im Auftrag der Rechtsdatenbank (RDB) in den 1990er Jahren eines der ersten allgemein verfügbaren Programme zur Berechnung der Lohnsteuer in Österreich entwickelt.
  58. 58 Axel, Adrian, Der Richterautomat ist möglich – Semantik ist nur eine Illusion, Rechtstheorie 48, 77 (S 85). Kritisch: Ebenhoch, Peter, Falsche Digitales Rechtsbewusstein, eine Kritik des Aufsatzes «Der Richterautomat ist möglich – Semantik ist nur eine Illusion» von Adrian https://rechtsinformatik.pro/post/falsches-rechtsbewusstsein-01/. Aufgerufen am 05.05.2023.
  59. 59 Dublin, Max, Future Hype – the Tyranny of Prophecy (1989).
  60. 60 Dublin, aaO, S 65 ff. Vgl. dazu auch: Hofstadter, R. Douglas: «Besprechung von Alan Turings: The Enigma», in: Metamagicum, S 519-528, Klett-Cotta, Stuttgart 1988.
  61. 61 Adrian, aaO.
  62. 62 Vgl dazu die Einladung zum Internationalen Rechtsinformatik Symposium (IRIS) 2023, in der das noch (sic!) nicht erschlossene Potenzial der Rechtsdigitalisierung zur Verbesserung der juristischen Methodik als «enorm» bezeichnet und einer «nach mehr als 4000 Jahren» angeblich immer noch «wissenschaftlich-methodisch wenig entwickelten Rechtsdogmatik» gegenüber gestellt wird: https://iris-conferences.eu/iris23_22-25feb23, abgerufen am 05.05.2023.
  63. 63 Alarie, aaO, S 3.
  64. 64 Alarie, aaO, S 1.
  65. 65 Alarie, aaO, S 3.
  66. 66 Alarie, aaO, S 3.
  67. 67 Zum Stein der Weisen, vgl. Wikipedia, https://de.wikipedia.org/wiki/Stein_der_Weisen, abgerufen am 05.05.2023.
  68. 68 Ähnlich Adrian, aaO, S 111, wenn er schreibt: «Das Projekt könnte praktisch daran scheitern, dass keine ausreichende, digitale Datenbasis vorhanden ist bzw. generiert werden kann.»
  69. 69 Alarie, aaO, S3.
  70. 70 Deshalt verwundert es nicht, dass Legal Information Retrieval nach wie vor eine der Haupterrungenschaften der Digitalisierung des Rechts und der Rechtsinformatik darstellt.
  71. 71 Derartige Fehler werden in der KI als «Maschinenintuition» oder gleich als «Halluzination» bezeichnet. Welche Ausmasse dies annehmen kann, beschreibt dieser Fall: Here’s What Happens When Your Lawyer Uses ChatGPT, https://www.nytimes.com/2023/05/27/nyregion/avianca-airline-lawsuit-chatgpt.html, sowie: https://www.heise.de/news/ChatGPT-erfindet-Gerichtsurteile-US-Anwalt-faellt-darauf-herein-9068180.html, beide abgerufen am 29.05.2023.
  72. 72 Zehnder, Carl August, Informationssysteme und Datenbanken (1998).
  73. 73 Zum Scheitern des Human Brain Projects: Meder, aaO, S 138.
  74. 74 So Schweighofer, aaO, S 208.
  75. 75 Adrian, aaO S 97: «Aus einem unendlichen Zeichenstrom entstehen Sprachquanten».
  76. 76 Anders als Adrian, der sich freilich aaO, S 85 von jedem Realitätsbezug verabschiedet und sich dann im abstrus wirkenden «Entwurf einer ‹Quasi-Quantentheorie der juristischen Sprache›» verläuft, aaO, S 95 ff, als hoffnungsloser Versuch das von ihm rundherum abgelehnte Existieren von Bedeutung, Kommunikation und Semantik überhaupt (!) durch die Panpsychisierung der Sprache irgendwie wieder auszugleichen.
  77. 77 Alarie, Benjamin, The Path of the Law: Toward Legal Singularity, 27.05.2016, (S 3).
  78. 78 Frederik, Jesse: Blockchain, the amazing solution for almost nothing, https://thecorrespondent.com/655/blockchain-the-amazing-solution-for-almost-nothing, abgerufen am 05.05.2023.
  79. 79 Umfassend dazu: Heylighen, Francis, Representation and Change. A Metarepresentational Framework for the Foundations of Physical and Cognitive Science.
  80. 80 So formuliert Heylighen, Francis, Representation and Change. A Metarepresentational Framework for the Foundations of Physical and Cognitive Science S 39.
  81. 81 Zur Unmöglichkeit globaler Repräsentatione allgemein: Heylighen, Francis, Representation and Change. A Metarepresentational Framework for the Foundations of Physical and Cognitive Science S 144.
  82. 82 Mit «Realität» ist hier die Umwelt des digitalen Systems gemeint; es kann offen bleiben, ob auf das Rechtssystem, die physische Realität bzw. welches andere gesellschaftliche Subsysteme Bezug genommen werden muss, um die erforderliche Kausalität akkurat zu erfassen.
  83. 83 Zur Unterscheidung von «präsentationaler Unmittelbarkeit» zu «kausaler Wirksamkeit» ausführlich Whitehead, Alfred North, Kulturelle Symbolisierung (2000). In die gleiche Richtung argumentiert Mach, dass Kausalität erst entsteht, «durch das Bestreben, die Thatsachen nachzubilden»: Mach, Ernst, Die Mechanik in ihrer Entwicklung S 456. Vgl. dazu auch Heylighen: «But to process complex information in an efficient way you need more than a collection of elementary representations (corresponding to information units), you need some global framework to guide the process at each decision point.», Heylighen, Francis, Representation and Change. A Metarepresentational Framework for the Foundations of Physical and Cognitive Science S 16.
  84. 84 Das Phänomen wird als Maschinenintuition oder -halluzination bezeichnet. Zur ontologischen Einordnung solcher Ausgaben als «abjektiv» siehe weiter unten.
  85. 85 Gödelscher Unvollständigkeitssatz, siehe https://de.wikipedia.org/wiki/G%C3%B6delscher_Unvollst%C3%A4ndigkeitssatz, aufgerufen am 05.05.2023.
  86. 86 Zudem sind die Möglichkeiten zur Validierung und zum Testen einer Wissensrepräsentation im besten Fall nur teilweise: Heylighen, Francis, Representation and Change. A Metarepresentational Framework for the Foundations of Physical and Cognitive Science S 41 ff, inbesondere 43.
  87. 87 Zum Halteproblem siehe https://de.wikipedia.org/wiki/Halteproblem, aufgerufen am 05.05.2023.
  88. 88 Zur Beschränkung der KI-Forschung durch Ressourcenbeschränkungen: Heylighen, Francis, Representation and Change. A Metarepresentational Framework for the Foundations of Physical and Cognitive Science S 19.
  89. 89 «HAL» steht nach Angaben des Autors Arthur C. Clarke für «Heuristically programme algorithmically Computer», https://de.wikipedia.org/wiki/HAL_9000, abgerufen am 05.005.2023.
  90. 90 Zitiert nach: https://www.imdb.com/title/tt0062622/characters/nm0706937, abgerufen am 05.05.2023.
  91. 91 Das «a» kann als Referenz auf «artificial» verstanden werden.
  92. 92 Für die unabhängige Überprüfbarkeit von automatisierten Entscheidungen auch Meder, aaO, S 137. Wobei das nicht ausreicht: Die faktische «Beweisumkehr» zusammen mit der entstehenden Ressourcenasymmetrie von automatisierter Textgenerierung zu individueller intentionaler Nachprüfung kann das grundsätzliche Grundproblem von erratisch falschen Textausgaben mit normativem Anspruch nicht zufriedenstellend auflösen.
  93. 93 Alarie, aaO, S 9: «The complexity will increase with time such that eventually everyone will become dependent on machine learning to cope with the complexity of the system.»
  94. 94 Adrian aaO.
  95. 95 Nach Husserl setzt Wissenschaft als menschliche Geistesleistung ständig «Lebensumwelt» voraus, Gesammelte Werke, Husserliana, Band VI, S 123, hg. v. W. Biemel, zitiert nach Wehrle, Maren, Phänomenologie: Eine Einführung (2022) S 68.
  96. 96 Arendt, Hannah, Eichmann in Jerusalem. Die Banalität des Bösen (1964).
  97. 97 Harvey, Jeremy, Eichmann in the Organization, in The Abilene Paradox – and other Meditations on Management (1988), 73.
  98. 98 Zu den Gefahren eines digitalen Faschismus bzw. eines digitalen Totalitarismus: Helbing, Dirk, Digital Fascism Rising?, in Towards Digital Enlightement (2019), 99.
  99. 99 Zu einer zeitgemässen Auslegung des «homo mensura» Satzes vgl: Buchheim, Thomas, Die Sophistik als Avantgarde normalen Lebens (1986).
  100. 100 7000-2021 – IEEE Standard Model Process for Addressing Ethical Concerns during System Design, https://ieeexplore.ieee.org/document/9536679, abgerufen am 05.05.2023.