Jusletter IT

Vom Rechtsinformationssystem zum Rechtstransformationssystem

  • Autor/Autorin: Felix Gantner
  • Beitragsart: Rechtsinformatik
  • Rechtsgebiete: Rechtsinformatik
  • DOI: 10.38023/c182b4dd-9f0d-4af9-a6bc-552446b5281c
  • Zitiervorschlag: Felix Gantner, Vom Rechtsinformationssystem zum Rechtstransformationssystem, in: Jusletter IT 29. Juni 2023
Die Entwicklung von juristischen Informationssystemen gehörte von Anfang an zu den zentralen Aufgaben und Herausforderungen für die Rechtsinformatik. In diesem Zusammenhang wurde auch intensiv diskutiert, was „Objektivität“ in Bezug auf Rechtsinformationssysteme bedeutet. Die aktuellen Entwicklungen auf dem Gebiet der KI führen zu einer neuen Art von juristischen Anwendungen, die als Rechtstransformationssysteme bezeichnet werden können und deren „Objektivität“ nicht mit jener von Rechtsinformationssystemen übereinstimmt. Eine Diskussion über die Auswirkungen auf die Methoden der Rechtsinformatik ist daher notwendig.

Inhaltsverzeichnis

  • 1. Rechtsinformatik und objektive Rechtsinformation
  • 2. Rechtstransformation
  • 2.1. Objektivität
  • 2.2. Transparenz
  • 3. Rechtstransformation und Methodenwandel in der Rechtsinformatik durch KI?
  • 4. Literatur

1.

Rechtsinformatik und objektive Rechtsinformation ^

[1]

Friedrich Lachmayer prägte in den letzten Jahrzehnten die Rechtsinformatik als wissenschaftliche Disziplin grundlegend. Ohne seine andauernden Bemühungen um dieses Fachgebiet wären pointiert formulierte Todesmeldungen1 zu diesem Wissenschaftszweig vielleicht mehr als nur ein zugespitzter Diskussionsanstoß.

[2]

Aber auch in der Praxis beim Aufbau und der laufenden Weiterentwicklung des Rechtsinformationssystems (RIS) zu einem zentralen Baustein der digitalen juristischen Infrastruktur Österreichs ist ihm viel zu verdanken.

[3]

Die Entwicklung von juristischen Informationssystemen gehörte von Anfang an zu den zentralen Aufgaben und Herausforderungen für die Rechtsinformatik. Dabei wurde der Begriff des juristischen Informationssystems letztlich mit dem des juristischen Dokumentationssystems gleichgesetzt, auch wenn man eine umfangreichere „Typologie juristischer Informationssysteme“2 erarbeitet hatte.

[4]

Wenn im Folgenden auf das RIS Bezug genommen wird, dann steht diese Funktion als juristisches Dokumentationssystem – in der Praxis als Suchmaschine für Rechtsprechungs- und Normendokumente – im Vordergrund. Andere Funktionen, wie z.B. die authentische Kundmachung von Rechtsvorschriften, sind zwar wesentlich für das RIS als Komponente der digitalen juristischen Infrastruktur Österreichs, jedoch soll es hier um Fragen der Objektivität von Daten und Rechtsinformationssystemen gehen.

[5]

Bei der Entwicklung der ersten Rechtsdatenbanken wurde die Frage, welche Daten in einem juristischen Dokumentationssystem enthalten sein sollen, intensiv diskutiert. Reisinger begründet daher auch im Zusammenhang mit der Entwicklung der Rechtsdatenbank juris die Forderung nach Objektivität ausführlich3:

Ein umfassendes, einem breiten Publikum zur Verfügung stehendes juristisches Informationssystem würde durch die Kanalisierung des Zugangs und eine gewisse Monopolstellung zwangsläufig in hohem Grade meinungsbildende Bedeutung besitzen. Es wäre daher unerträglich, wenn ein solches System die Pluralität dokumentierter juristischer Standpunkte reduzieren oder deren quantitative Repräsentation verschieben würde; das System müsste gerade umgekehrt zur getreuen Anzeige dieser Verhältnisse dienen können. Aus diesem Grund ist die Frage der „Objektivität“ für Juris von entscheidender Bedeutung.
[6]

Im Anschluss an diese grundlegenden Ausführungen ist auch eine Definition des Begriffs Objektivität zu finden:

„Objektivität“ bedeutet bei einem Dokumentationssystem im Grunde, dass das durch ein System gegebene „Modell“ dem Urbild der Gesamtheit einschlägiger Dokumente analog (homomorph oder isomorph) ist.
[7]

Zusätzlich wird auch die Forderung nach Transparenz erhoben, wobei diese sowohl die technischen Systemkomponenten als auch die Dokumente und etwaige Bearbeitungen betrifft.

[8]

Bei der Entwicklung von Rechtsdatenbanken wie dem RIS wurden in der Folge auch Forderungen wie die gerade zitierten berücksichtigt. Die so entstandenen juristischen Dokumentationssysteme sollen eine definierte Menge juristischer Dokumente speichern und such- bzw. abrufbar machen.

[9]

Die Dokumente selbst und auch die statistischen Häufigkeiten, die sich aus den dokumentierten (möglichst) unveränderten Daten ergeben, werden nicht verändert. Auch wenn technisch zahlreiche Bearbeitungsschritte, wie z.B. die Erzeugung von Indizes für die Volltextsuche, notwendig sind, bleibt das System objektiv und damit in dem Sinn passiv, dass keine neuen Dokumente erzeugt oder Dokumente verändert werden.

[10]

In Bezug auf die Entwicklung der technischen Grundlagen schien es in den letzten Jahrzehnten, als ob diese für die Basistechnologie von Volltextdatenbanken abgeschlossen wäre. Zahlreiche Open-Source-Projekte (Apache Solr, Elasticsearch, OpenSearch, ...) ermöglichten auch einen kostengünstigen Zugang zu dieser Technik.

[11]

Das technische Grundprinzip dieser Systeme blieb aber – nicht zuletzt wegen des Gebots der Objektivität – gleich: Über Suchkriterien werden Dokumente gefunden und unverändert angezeigt. Das Suchergebnis wird durch die Benutzer:innen analysiert und bewertet.

[12]

Laufende Anpassungen und Weiterentwicklungen im Bereich der Benutzeroberflächen und Schnittstellen wurden durch die allgemeine technische Entwicklung angestoßen, änderten aber nichts an dem Konzept eines objektiven Dokumentationssystems.

[13]

Im Zusammenhang mit den Entwicklungen im Bereich der künstlichen Intelligenz änderte sich dies. Zuerst allgemein für den Bereich der Suche im Internet. Doch auch für die Rechtsinformationssysteme ist absehbar, dass die intensiv geführte Diskussion im Bereich der Suchtechnologien für diesen Fachbereich relevant wird.

[14]

Diskutiert wurde vor allen, in welchem Ausmaß in Dokumenten enthaltene Daten für Benutzer von Suchmaschinen als Suchergebnis aufbereitet und zusammengefasst werden sollen. Es geht um eine Abkehr vom Konzept der Objektivität hin zu einer Maschine, die eigenständig Dokumente als Suchergebnisse erzeugt.

[15]

Diese grundsätzliche Diskussion begann bereits, bevor ChatGPT und ähnliche Systeme einer breiten Öffentlichkeit verfügbar waren. Ausgangspunkt waren die Überblicksdarstellungen, die von Suchmaschinen wie Google generiert wurden. Wichtige Debattenbeiträge waren z.B.:

  • The Dilemma of the Direct Answer4: Festgestellt wurde, dass „retrieval technology has been evolving to a kind of ‚oracle machinery‘, being able to recommend a single source, and even to provide direct answers extracted from that source“. Dies hat auch Nachteile, vor allem wenn die Dokumentaufbereitung für die Suche nur mehr maschinell durchgeführt wird und sich damit neue Konzepte der Organisation von Wissen durchsetzen. „Due to the explosive growth of information, knowledge can no longer be organized manually by humans, but the organization is handed over to machines, which store the knowledge and provide interfaces to access it. While manual forms of organizing knowledge were and are often top-down hierarchies of categories, representing an agreed-upon ontology, knowledge organization by machines is mostly associative.“ Dies beschränkt die Möglichkeiten des Dokumentenzugangs und schränkt die Benutzer ein.
  • Rethinking Search5: Die Gegenposition dazu ist natürlich, dass Benutzer:innen nicht mühsam Verweise auf Dokumente analysieren wollen, sondern durch einen Experten beraten werden wollen. Es geht um das Zusammenführen klassischer Konzepte des information retrieval und der neuen KI-Sprachmodelle, denn diese könnten in Zukunft „be synthesized and evolved into systems that truly deliver the promise of domain expert advice“.
  • Situating Search6: Hier wird Recherche in Verbindung mit Lernen gebracht und in einem größeren Kontext behandelt. Die Ansätze zur automatisierten Generierung von Texten, die Daten als Antwort auf eine Suchanfrage zusammenfassen, werden kritisch gesehen.
[16]

Spätestens seit der Integration von ChatGPT in die Suchmaschine bing durch Microsoft wurden Fakten7 geschaffen, die eine differenzierte Diskussion über mögliche technische Weiterentwicklungen auf dem Gebiet der Suchmaschinen obsolet erscheinen lässt. Das Konzept der Objektivität von Dokumentationssystemen wird nicht mehr weiter verfolgt.

[17]

Systeme wie das RIS sind von diesen Entwicklungen noch nicht betroffen, weshalb auf dem Gebiet der Rechtsinformatik die Diskussion über diese Zukunft juristischer Informationssysteme weitergeführt werden sollte.

[18]

Der allgemeine Begriff der juristischen Informationssysteme umfasst dabei nicht nur Rechtsdatenbanken. Denn sobald ein System dazu genutzt wird, selbständig Texte auf Grund vorhandener Daten als Wissensbasis und analysierter Suchanfragen zu erzeugen, ist es ein Subsumtionsautomat.

[19]

Bemerkenswert ist im Zusammenhang mit KI und den dabei verwendeten Methoden des natural language processing, dass bereits Reisinger diese technischen Möglichkeiten geschätzt hätte, wenn er zur Benutzeroberfläche von Rechtsdatenbanken feststellt: „Es wäre wünschenswert, wenn der Benutzer seine Frage möglichst mit eigenen Worten frei formulieren könnte.“8

2.

Rechtstransformation ^

[20]

In Abgrenzung zu den „klassischen“ juristischen Dokumentationssystemen, den Rechtsinformationssystemen, wird hier für die auf KI-Sprachmodellen aufbauenden generativen Systeme der Begriff Rechtstransformationssysteme verwendet. Er ist angelehnt an den „Slogan“ der Akteur-Netzwerk-Theorie: „Es gibt keine In-formation, nur Trans-Formation.“9

[21]

Dadurch soll prägnant dargestellt werden, dass die Interpretation von Daten und die damit verbundene Gewinnung von Information kein „transparentes Fenster ist, das ohne Deformation irgendeine Information … transportiert“10.

[22]

Dieser Problematik waren sich die Entwickler der ersten Rechtsinformationssysteme auch bewusst, wenn sie Objektivität und Transparenz als wichtige Ziele definierten. Es wurde aber versucht, diese Deformation so gering wie möglich zu halten.

[23]

Die aktuellen Entwicklungen auf dem Gebiet der KI unterscheiden sich sowohl in dem Objektivitätsbegriff als auch bei Transparenz wesentlich von den „klassischen“ Ansätzen.

2.1.

Objektivität ^

[24]

Reisinger fand es „unerträglich“, wenn ein System „die Pluralität dokumentierter juristischer Standpunkte reduzieren oder deren quantitative Repräsentation verschieben würde“.

[25]

Eine derartige Verschiebung der quantitativen Repräsentation kann bei einem Rechtsinformationssystem sowohl auf der Ebene der Daten, die darin dokumentiert sind, als auch auf der Ebene der maschinellen Auswertung und Darstellung z.B. im Rahmen von Suchanfragen passieren.

[26]

Die Ebene der Daten betrifft die Auswahl und Aufbereitung der juristischen Dokumente.

[27]

Im Bereich der Auswertung können auf der Maschinenebene die (Such-)Algorithmen und die Methoden der Ergebnisdarstellung (Sortierung, Relevanzanalyse und -gewichtung, …) zu einer Verschiebung der quantitativen Repräsentation führen. Wesentlich für die Möglichkeit einer Analyse solcher Verschiebungen ist die Wiederholbarkeit der Auswertungen.

[28]

Bei der Entwicklung von KI-Anwendungen, insbesondere im Bereich des machine learning (ML), ist bei der Modellbildung und auch auf der Maschinenebene ein völlig anderer Zugang zu diesen klassischen Grundvoraussetzungen für Objektivität von Rechtsinformationssystemen zu erkennen.

[29]

In Rechtsinformationssystemen kann jedes einzelne Dokument auf Grund von Wortlisten (Volltextindizes) bei Eingabe mit gleicher oder ähnlicher Wahrscheinlichkeit gefunden werden. Damit ist – zumindest vom konzeptionellen Ansatz her – bei der Modellbildung und Datenaufbereitung jedes einzelne Dokument gleich relevant. Eine Gewichtung und Relevanzbewertung wird nur in Hinblick auf die im Rahmen einer Recherche eingegebenen Suchparameter vorgenommen.

[30]

Ganz anders ist dies auf dem Gebiet des ML. Im Anschluss an die Modellbildung bzw. Dokumentauswahl und -aufbereitung wird im Rahmen von Trainings- und Testvorgängen ein System an ein gewünschtes Ergebnis angenähert und optimiert. Da dies (auch) über statistische Näherungsalgorithmen durchgeführt wird, wird in den internen Parametern des ML-Systems auch eine statistische Gewichtung abgebildet. Dies bedeutet immer auch, dass häufiger vorkommenden Daten eine größere statistische Bedeutung zugewiesen wird.

[31]

Sollen Dokumente einer bestimmten, selten vorkommenden Kategorie gleich relevant wie andere aus Kategorien mit vielen Dokumenten sein, dann müssen die Daten im Rahmen der Modellbildung entsprechen angepasst werden.

[32]

Diese Vorgangsweise wird z.B. bei einem System zur Vorhersage von Entscheidungen des EGMR detailliert beschrieben11:

For example, we might want to train a program that predicts whether there is a violation of Article 13, and feed it all 170 ‚non-violation‘ cases together with all 1230 ‚violation‘ cases. With such a clear imbalance in the number of cases per type, it is likely that the program will learn that most of the cases have a violation and then simply predict ‚violation‘ for every new case (the performance will be quite high: 88% correct). In order to avoid this problem, we instead create a balanced dataset by including the same number of violation cases as the number of non-violation cases. We randomly removed the violation cases such that the distribution of both classes was balanced (i.e. 170 violation cases vs. 170 non-violation cases). The excluded violation cases were subsequently used to test the system.
[33]

Die Verschiebung der quantitativen Repräsentation ist in diesem Fall eine zentrale Methode der Systementwicklung. Die Transformation von Daten in statistisch an die Trainingsalgorithmen von ML-Systemen angepasste Datenmodelle ist daher eine Grundvoraussetzung für diese Art von KI-Anwendungen.

[34]

Weizenbaum12 bezeichnete Programmierer als „Schöpfer von Universen, deren alleiniger Gesetzgeber“ sie sind. Ihre Schöpfungen „gehorchen bereitwillig ihren Gesetzen“.

[35]

Doch nicht nur die vom Programmierer entwickelten Programme, auch deren Benutzer:innen sind von den Entscheidungen der Software-Entwickler betroffen. Wie sehr persönliche Werthaltungen in Codes einfließen, wurde bereits vor über 30 Jahren im Zusammenhang mit regelbasierten KI-Anwendungen beschrieben:13

Er [ein 46jähriger KI-Forscher] berichtet von einem Expertensystem, das er zusammen mit Kollegen zur Personaleinteilung in einem Krankenhaus entwickelt hat. Dabei habe man sich auch über Gerechtigkeit verständigt und versucht, diesen moralischen Wert in das System zu integrieren, etwa in Form der Regel, dass jemand nicht unmittelbar vor oder nach seinem Urlaub zum Wochenenddienst eingeteilt wird.
[36]

Der Terminus „Programmierer als Gesetzgeber“ bezeichnet einen Aspekt der Software-Entwicklung treffend.

[37]

Bei der Modellbildung für ML-Systeme werden ebenso Wertungen getroffen. Es fließen auch „nicht technische“ Sichtweisen ein. Welche Daten berücksichtigt bzw. nicht berücksichtigt werden, welche Rolle ihnen zugewiesen wird (Trainings- oder Testdaten oder im Modell nicht berücksichtigt14), kann von persönlichen Werthaltungen, aber auch von technischen Schwierigkeiten oder entsprechendem Fachwissen bzw. dessen Mangel abhängen.

[38]

Der Terminus „Daten-Analyst/Modellierer als Gesetzgeber“ wäre daher auch im Zusammenhang mit modernen KI-Systemen zutreffend.

[39]

Diese Form der bewertenden Transformation ist ein Aspekt des Begriffs Rechtstransformationssystem. Im Gegensatz zum Rechtsinformationssystem, das versuchte, juristische Daten objektiv, also mit möglichst geringer Verschiebung der quantitativen Repräsentation abzubilden, ist dies bei diesen sogar die Voraussetzung.

[40]

Das bisher gültige Konzept der Objektivität von Daten bzw. der auf diesen aufbauenden Modelle ist daher für den Bereich von ML-Systemen nicht mehr anwendbar.

[41]

Häufig wird daraus auf eine mangelnde Objektivität der KI-Systeme geschlossen15. Dies ist jedoch nicht möglich, da die Objektivität von Maschinen etwas anderes ist als die von Daten.

[42]

Nassehi betont: „Die Funktion von Technik ist das Funktionieren.“16 Das bedeutet, die maschinelle Objektivität liegt im Funktionieren. Eine Maschine funktioniert oder funktioniert nicht wie erwartet.

[43]

Diese Form der Objektivität, die damit verbundene „Niederschwelligkeit des Nutzens“ und „Niederschwelligkeit des Funktionierens“17 steht einer Reflexion über Inhalte entgegen. Maschinen werden eingesetzt, „nicht weil sie konzeptuell überzeugend sind, sondern weil sie funktionieren18.

[44]

Die maschinelle Objektivität hat zur Folge: „Das Überzeugende technischer Lösungen besteht darin, dass sie funktionieren, und das Funktionieren verzichtet auf Beobachtung, sondern erzeugt einen Sog durch seine Einfachheit.“19

[45]

Das bedeutet, dass Reflexionen über die Gestaltung, aber auch über die Sinnhaftigkeit des Einsatzes von Rechtstransaktionssystemen vor allem auf der Ebene der Modellbildung anzusiedeln sind. Der Sog der Einfachheit macht eine kritische Reflexion20 während der Verwendung einer Maschine schwer.

[46]

Aber auch die Idee der Wiederholbarkeit von Rechenergebnissen bzw. Systemverhalten wurde bei ML-Systemen aufgegeben. Dies zeigt das Beispiel einer Abfrage in GPT-3 im nächsten Abschnitt.

2.2.

Transparenz ^

[47]

Eines der zentralen Probleme beim Einsatz modernen ML-Anwendungen ist, dass sie black-box-Systeme21 sind, die auch mit jedem Update ihr Verhalten ändern können.

[48]

Auf Grund ihres technischen Aufbaus, aber auch weil Datenmodelle dieser Systeme nicht frei zugänglich und analysierbar sind, ist deren Verhalten nicht transparent.

[49]

Dies ist nicht weiter überraschend, wurde doch schon vor Jahrzehnten vorausgesagt, dass die KI-Systeme der Zukunft „mit Sicherheit in ihrem inneren Ablauf undurchschaubar sein“22 werden.

[50]

Gerade im Rechtsbereich sind jedoch nachvollziehbare Begründungen von grundlegender Bedeutung. Die folgende Wiedergabe einer Abfrage in GPT-3 zeigt, dass sogar wenn eine ausführliche Begründung bei der Beantwortung einer kurzen Rechtsfrage angefragt wurde, diese nicht den grundlegenden Anforderungen in diesem Fachbereich entspricht. Vor allem zeigt die Tatsache, dass sich die Begründung bei jeder Antwort ändert, keine transparente Argumentation, sondern nur bedeutungsleere23 Zeichenfolgen – in einem Fall sogar in Form eines fehlerhaften Syllogismus - generiert werden.

[51]

Die gestellte Frage wurde in Anlehnung an ein Beispiel in einer Muster-Klausur24 gestellt:

§ xy des z-Gesetzes lautet: „Beim Überqueren der Straße auf einem Zebrastreifen sind Fahrräder ausnahmslos zu schieben.“ Darf Max, der von seinen Eltern zum Geburtstag einen brandneuen Elektroroller bekommen hat, mit diesem über den Zebrastreifen fahren?
Ausgabe 1:
Nein, Max darf nicht mit seinem Elektroroller über den Zebrastreifen fahren, da § xy des z-Gesetzes besagt, dass Fahrräder ausnahmslos zu schieben sind, wenn man einen Zebrastreifen überquert. Elektroroller werden nicht explizit in dieser Regelung erwähnt, können daher auch nicht als Ausnahme zugelassen werden.
Ausgabe 2:
Nein, Max darf nicht mit seinem Elektroroller über den Zebrastreifen fahren. Gemäß §xy des z-Gesetzes gilt, dass Fahrräder ausnahmslos zu schieben sind, wenn man über einen Zebrastreifen fährt. Elektroroller werden hierbei als Fahrräder eingestuft, somit muss auch Max seinen Elektroroller schieben.
Ausgabe 3:
Nein, denn die Regelung des § xy des z-Gesetzes verbietet es ausdrücklich, Fahrräder über den Zebrastreifen zu fahren. Dies gilt auch für Elektroroller, die in einigen Ländern als Fahrräder eingestuft werden. Max darf also nicht mit seinem Elektroroller über den Zebrastreifen fahren.
Ausgabe 4:
Step 1: What does the law say?
The law states that bicycles must be pushed when crossing the street on a zebra crossing.
Step 2: Is an electric scooter a bicycle?
No, an electric scooter is not a bicycle.
Step 3: Can Max ride his electric scooter across the zebra crossing?
No, according to the law, Max cannot ride his electric scooter across the zebra crossing. He must push it.
[52]

Auch diese Voraussetzung für Objektivität von Rechtsinformationssystemen wird bei Rechtstransformationssystemen nicht mehr erfüllt.

3.

Rechtstransformation und Methodenwandel in der Rechtsinformatik durch KI? ^

[53]

Der Begriff des Rechtstransformationssystems weist auch auf einen anderen Aspekt der aktuellen Entwicklung im Zusammenhang mit KI-Systemen hin. Vielfach wird – auch auf Grund der verfehlten Annahme einer Objektivität der Systeme (siehe oben) – gefordert, dass sich das Rechtssystem an die vorhandene, anscheinend überlegene Technik anpassen muss. Es wird eine neue Form von Recht gefordert, die über KI, insbesondere ML-Technik, definiert wird.

[54]

Ein Beispiel dafür ist die Ankündigung einer „Legal Singularity“25. Diese tritt ein, wenn „machines themselves will be able to fully ‚understand‘ the law“26. In diesem Endzustand ist auch eine Fortbildung und Weiterentwicklung des Rechts nicht mehr notwendig, denn „the equilibrium that would be reached would be based on positive and normative convergence of facts and values“27.

[55]

Unabhängig von solchen Prognosen muss die Frage, wie die neuen technischen Konzepte das Rechtssystem beeinflussen und vielleicht sogar dominieren, diskutiert werden.

[56]

Sie führt aber auch in der Rechtsinformatik zu einer neuen Methodendiskussion, die auch an dem Hauptthema der Tagung IRI§23 erkennbar wurde, das lautete: Rechtsinformatik als juristische Methodenwissenschaft28.

[57]

Die vorangehenden Beispiele haben gezeigt, dass die Methoden, die bei der Entwicklung von Rechtstransformationssystemen eingesetzt werden, nur schwer mit den bisher angewendeten Methoden und dem Konzept für Rechtsinformationssysteme vereinbar sind.

[58]

Diese methodischen Probleme werden noch stärker sichtbar werden, wenn deutlich wird, dass auch bei der Entwicklung von ML-Systemen, die als primär statistische Systeme anzusehen sind, regelbasierte Ansätze beim fine-tuning29 Anwendung finden.

[59]

Das früher durch den mit regelbasierten Methoden verbundenen Aufwand aufgetretene „knowledge representation bottleneck“30 und die methodischen Unterschiede zur Entwicklung von Modellen für ML-Anwendungen werden nicht einfach verschwinden.

[60]

Eine intensive Diskussion dieser Aspekte der Rechtstransformationssysteme und der Auswirkungen ihres Einsatzes ist notwendig, bevor man vom maschinellen Sog der Einfachheit überwältigt wird.

4.

Literatur ^

Alarie, Benjamin, The Path of the Law: Toward Legal Singularity, http://dx.doi.org/10.2139/ssrn.2767835, May 27 2016 [aufgerufen am 4. Mai 2023]

Alarie, Benjamin/Niblett, Anthony/Yoon, Albert H., How Artificial Intelligence Will Affect the Practice of Law, The University of Toronto Law Journal, 2018 (68), Supplement 1, 106–124

Ashley, Kevin D., Artificial intelligence and legal analytics: new tools for law practice in the digital age, Cambridge University Press, Cambridge 2017

Bender, Emily M./Gebru, Timnit/McMillan-Major, Angelina/Shmitchell, Shmargaret, On the Dangers of Stochastic Parrots: Can Language Models Be Too Big?, FAccT ‚21, 2021, 610–623

Hoeren, Thomas, Von Judge Judy zum Beck-Blog: Die Rechtswissenschaft der Berliner Republik im medialen Wandel. In: Duve, Thomas/Ruppert, Stefan (Hrsg.), Rechtswissenschaft in der Berliner Republik, Suhrkamp, Berlin 2018, 212–237

Isbell, Charles/Littman, Michael L./Norvig, Peter, Software Engineering of Machine Learning Systems, Communications of the ACM, 2023 (66), 2, 35–37

Kramer, André, Ein reizbarer Bot, c’t, 2023, Heft 8, 118-123

Latour, Bruno, Eine neue Soziologie für eine neue Gesellschaft, 4. Auflage, Suhrkamp, stw 1967, Frankfurt am Main 2017

McGinnis, John O./Pearce, Russel G., The Great Disruption: How Machine Intelligence Will Transform the Role of Lawyers in the Delivery of Legal Services, Fordham Law Review, 2014 (82), Issue 6, 3041–3066

Medvedeva, Masha/Vols, Michel/Wieling, Martijn, Using machine learning to predict decisions of the European Court of Human Rights, Artificial Intelligence and Law, 2020 (28), Issue 6, 237-266

Metzler, Donald/Tay, Yi/Bahri, Dara/Najork, Marc, Rethinking Search: Making Domain Experts out of Dilettantes, SIGIR Forum, 2021 (55), Nr 1, 1-27

Nassehi, Armin, Muster - Theorie der digitalen Gesellschaft, 2. Auflage, C. H. Beck, München 2019

Popolari, Markus, Der Subsumtionsautomat? Rechtsfindung an der Schnittstelle zwischen Mensch und Maschine (Koreferat). In: Feldner, Birgit/Forgó, Nikolaus/Kremnitzer, Udo/Philapitsch, Florian (Hrsg.), Chaos Control, Manz, Wien 2001, 39–43

Potthast, Martin/Hagen, Matthias/Stein, Benno, The Dilemma of the Direct Answer, SIGIR Forum, 2020 (54), Nr 1, 1-12

Reisinger, Leo, Rechtsinformatik, De Gruyter, Berlin – New York 1977

Schachtner, Christel, Geistmaschine, Suhrkamp, stw 1072, Frankfurt am Main 1993

Shah, Chirag/Bender, Emily M., Situating Search, CHIIR ‚22, 221–232

Unseld, Godela, Maschinenintelligenz oder Menschenphantasie?, Suhrkamp, stw 987, Frankfurt am Main 1992

Weizenbaum, Joseph, Die Macht der Computer und die Ohnmacht der Vernunft, Suhrkamp, stw 274, Frankfurt am Main 1978

  1. 1 Hoeren, Thomas, Von Judge Judy zum Beck-Blog: Die Rechtswissenschaft der Berliner Republik im medialen Wandel.
  2. 2 Reisinger, Leo, Rechtsinformatik, 100.
  3. 3 Ebd. 129 (Hervorhebung im Original).
  4. 4 Potthast, Martin/Hagen, Matthias/Stein, Benno, The Dilemma of the Direct Answer.
  5. 5 Metzler, Donald/Tay, Yi/Bahri, Dara/Najork, Marc, Rethinking Search: Making Domain Experts out of Dilettantes.
  6. 6 Shah, Chirag/Bender, Emily M., Situating Search.
  7. 7 Vgl. z.B. die Analysen und Beschreibungen in c’t 10/2023 vom 22.4.2023, die zusammengefasst sind unter der Überschrift: „KI-Suche statt Google“.
  8. 8 Reisinger, Leo, Rechtsinformatik, 130.
  9. 9 Latour, Bruno, Eine neue Soziologie für eine neue Gesellschaft, 257.
  10. 10 Ebd. 257.
  11. 11 Medvedeva, Masha/Vols, Michel/Wieling, Martijn, Using machine learning to predict decisions of the European Court of Human Rights, 247.
  12. 12 Weizenbaum, Joseph, Die Macht der Computer und die Ohnmacht der Vernunft, 160.
  13. 13 Schachtner, Christel, Geistmaschine, 45.
  14. 14 „While some cases may have both decisions [= ‚violation‘ und ‚non-violation‘] for one article if there are multiple offences, here we only focus on cases in which there is a single ruling (‚violation‘ or ‚non-violation‘).“ (Medvedeva, Masha/Vols, Michel/Wieling, Martijn, Using machine learning to predict decisions of the European Court of Human Rights, 247).
  15. 15 Z.B. Popolari, Markus, Der Subsumtionsautomat? Rechtsfindung an der Schnittstelle zwischen Mensch und Maschine (Koreferat), 43: „Auch die Objektivität eines solchen Automaten kann verneint werden, solange die zu trainierenden Fälle vormals von Menschen entschieden worden sind.“
  16. 16 Nassehi, Armin, Muster - Theorie der digitalen Gesellschaft, 205.
  17. 17 Ebd. 208.
  18. 18 Ebd. 207 (Hervorhebung im Original).
  19. 19 Ebd. 225.
  20. 20 Nur so ist zu erklären, dass die britische Ministerin für Wissenschaft und Technologie Michelle Donelan den Einsatz von ChatGPT, dessen starke Tendenz zu Halluzination (Kramer, André, Ein reizbarer Bot) bekannt ist, für sensible Aufgaben wie die Formulierung von Gesetzestexten möglich hält (Salzburger Nachrichten, 6. März 2023, 7).
  21. 21 „.. each new ML system is built from scratch, and each resulting model is largely a black box requiring significant work to understand and verify.“ (Isbell, Charles/Littman, Michael L./Norvig, Peter, Software Engineering of Machine Learning Systems, 37).
  22. 22 Unseld, Godela, Maschinenintelligenz oder Menschenphantasie?, 397.
  23. 23 Vgl. dazu Bender, Emily M./Gebru, Timnit/McMillan-Major, Angelina/Shmitchell, Shmargaret, On the Dangers of Stochastic Parrots: Can Language Models Be Too Big?
  24. 24 Ao. Univ.-Prof. Dr. Eva Palten, Institut für Zivilrecht, Kurs: Einführung Rechtswissenschaften und ihre Methoden/Privatrecht/Fragen, Falllösung SS 2019, 2 (https://zivilrecht.univie.ac.at/fileadmin/user_upload/i_zivilrecht/Palten/KU/SoSe19/SS_2019_Musterloesung_Punkteschema_Klausur_Einfuehrung.pdf, aufgerufen 4.5.2023).
  25. 25 Alarie, Benjamin, The Path of the Law: Toward Legal Singularity. Diese Prognose wird vertreten, obwohl in einem anderen Artikel festgestellt wird: „Accordingly, algorithms relying on natural language processing may yield imprecise results and, predictably, more so as the complexity of the legal question increases.“ (Alarie, Benjamin/Niblett, Anthony/Yoon, Albert H., How Artificial Intelligence Will Affect the Practice of Law, 118.).
  26. 26 Alarie, Benjamin, The Path of the Law: Toward Legal Singularity, 9.
  27. 27 Ebd. 10.
  28. 28 https://iris-conferences.eu/iris23_22-25feb23 (aufgerufen 4.5.2023).
  29. 29 Vgl. https://openai.com/research/instruction-following: „To train InstructGPT models, our core technique is reinforcement learning from human feedback (RLHF), a method we helped pioneer in our earlier alignment research. This technique uses human preferences as a reward signal to fine-tune our models, ...“.
  30. 30 Ashley, Kevin D., Artificial intelligence and legal analytics: new tools for law practice in the digital age, 4.