Jusletter IT

Das Basisdokument geht ins Reallabor: zur Evaluation des Einsatzes bei Gericht

  • Authors: Christoph Althammer / Jens Bauer / Victoria Böhm / Jakob Fehle / Bettina Mielke / Christian Wolff
  • Category of articles: E-Justice
  • Region: Germany
  • Field of law: E-Justice
  • Collection: Conference proceedings IRIS 2023
  • DOI: 10.38023/ba7351cd-d1dc-46d6-a62c-0b014b5f69e3
  • Citation: Christoph Althammer / Jens Bauer / Victoria Böhm / Jakob Fehle / Bettina Mielke / Christian Wolff, Das Basisdokument geht ins Reallabor: zur Evaluation des Einsatzes bei Gericht, in: Jusletter IT 30 March 2023
Im Kontext der bereits länger andauernden Diskussion um den strukturierten Parteivortrag im deutschen Zivilprozess haben wir seit 2021 Prototypen für ein elektronisches Basisdokument entwickelt. Darauf baut ein gemeinsames Forschungsprojekt der Universität Regensburg, des Bayerischen Staatsministeriums der Justiz und des Niedersächsischen Justizministeriums auf, in dem die Strukturierung des Parteivortrags mittels elektronischen Basisdokuments in einem Reallabor erprobt wird. In diesem Beitrag diskutieren wir, wie das Vorhaben evaluiert werden könnte. Im Zentrum stehen dabei einerseits die Vorstellung und Diskussion möglicher Methoden, andererseits die Auseinandersetzung mit dem übergeordneten regulatorischen Erkenntnisinteresse bezüglich der Weiterentwicklung der Zivilprozessordnung in Hinblick auf Strukturvorgaben im Parteivortrag im deutschen Zivilprozess unter den Rahmenbedingungen der Digitalisierung.

Inhaltsverzeichnis

  • 1. Einleitung
  • 2. Die Basisdokumentsoftware
  • 3. Forschungsprojekt und Reallabor
  • 4. Evaluationsmethoden
  • 4.1. Rahmenbedingungen der Evaluation
  • 4.2. Forschungsfragen
  • 4.3. Grundlegende Fragen zur Evaluation und Auswahl von Methoden
  • 4.3.1. Auswahl nach Erkenntnisinteresse
  • 4.3.2. Usability-Probleme
  • 4.3.3. Positive Usability-Beobachtungen
  • 4.3.4. Metriken, die auf Selbstauskunft basieren
  • 4.4. Verfügbare Erhebungsmethoden im Einzelnen
  • 4.4.1. Interviews
  • 4.4.2. Fokusgruppen
  • 4.4.3. Fragebögen
  • 4.5. Bewertung
  • 5. Das regulatorische Erkenntnisinteresse
  • 6. Ausblick

1.

Einleitung ^

[1]

Bereits seit längerem steht die Effizienz des deutschen Zivilprozesses zur Debatte. Seit über 30 Jahren wird diskutiert, ob nicht eine stärkere Strukturierung des Parteivortrags sinnvoll sein könnte, wie es in Ländern wie Frankreich oder Großbritannien der Fall ist.1

[2]

Ein viel beachteter Vorschlag stammt von der Arbeitsgruppe Modernisierung des Zivilprozesses, eingesetzt 2019 von den Präsidentinnen und Präsidenten der Oberlandesgerichte und des BGH, und sieht im Anwaltsprozess die Einführung eines elektronischen Basisdokuments vor, in dem der bislang schriftsätzlich vorgetragene Parteivortrag erfolgt. Das Konzept hat eine interdisziplinäre Arbeitsgruppe an der Universität Regensburg aufgegriffen und Prototypen entwickelt, um die Handhabbarkeit einer solchen Strukturierungsvorgabe besser veranschaulichen zu können.2 Mittlerweile wurde eine funktionsfähige Software entwickelt, die bereits in ersten Tests untersucht wurde. Ein auf diesen Vorarbeiten aufbauendes Forschungsprojekt hat nunmehr die Erprobung einer solchen Strukturierung für den Parteivortrag und ihrer Unterstützung durch Software unter echten Bedingungen an ausgewählten Testgerichten zum Gegenstand.

2.

Die Basisdokumentsoftware ^

[3]

Auf der Basis der 2021 entwickelten noch nicht funktionalen Prototypen für ein Basisdokument konnte 2022 eine Weiterentwicklung in Angriff genommen werden, die als browserbasierte Anwendung wesentliche Funktionen eines digitalen Basisdokuments anbietet. Der Prototyp wurde mit Hilfe von TypeScript und einschlägigen Bibliotheken (u.a. React.js) realisiert und verwendet die JavaScript Object Notation (JSON) für die Aufbereitung strukturierter Daten.

3.

Forschungsprojekt und Reallabor ^

[4]

Im Juli 2022 wurde ein Forschungsprojekt ins Leben gerufen, an dem die Justizministerien der deutschen Bundesländer Bayern und Niedersachsen und die Lehrstühle für deutsches Verfahrensrecht (Prof. Althammer) und Medieninformatik (Prof. Wolff) der Universität Regensburg sowie Vertreter der Praxis beteiligt sind. Geplant ist neben der Weiterentwicklung der Software vor allem deren praktische Erprobung.

[5]

Vorgesehen ist, das Basisdokument an verschiedenen Gerichten in Bayern und Niedersachsen zu testen. Der Einsatz soll dabei für ausgewählte Verfahren erfolgen, bei denen sich die Parteien und das Gericht bereit erklärt haben, das Basisdokument zu nutzen. Insofern handelt es sich um einen Versuch unter Realbedingungen einschließlich der aktuell gültigen rechtlichen Rahmenbedingungen; die Schaffung von Experimentierklauseln in einem überschaubaren Zeitraum erschien rechtspolitisch nicht durchsetzbar.

[6]

Der Begriff des Reallabors wurde in Deutschland insbesondere durch das vom Bundeswirtschaftsministerium herausgegebene Handbuch Reallabore3 geprägt. Dort werden Reallabore wie folgt definiert:

[7]

„Reallabore (englisch: „regulatory sandboxes“) bieten die besondere Chance, nicht nur über Innovationen zu lernen, sondern auch über deren rechtlichen Rahmen. Als „Testräume für Innovation und Regulierung“ sind Reallabore durch drei Elemente gekennzeichnet.

1. Reallabore sind zeitlich und räumlich begrenzte Testräume, in denen innovative Technologien oder Geschäftsmodelle unter realen Bedingungen erprobt werden. […]

2. Reallabore nutzen rechtliche Spielräume. […]

3. Reallabore sind mit einem „regulatorischen Erkenntnisinteresse“ verbunden.“4

[8]

Im vorliegenden Fall liegt zwar ein klares regulatorisches Erkenntnissinteresse (Punkt 3) vor („Sollen rechtliche Regelungen getroffen werden, die eine Strukturierung des Parteivortrags im Zivilprozess auf der Basis geeigneter Informationstechnologie (Basisdokument) verbindlich machen?“), eigene oder auf das Projekt zugeschnittene rechtliche Spielräume im Sinne einer Experimentierklausel stehen hingegen nicht zur Verfügung, der geplante Testbetrieb erfolgt unter den Regelbedingungen des Zivilprozesses. Rechtliche Spielräume, die Generalklauseln wie § 139 Abs. 1 S. 3 ZPO (der keine bestimmte Strukturierungsmaßnahme vorschreibt) oder ggf. § 273 Abs. 2 ZPO („insbesondere“) ermöglichen, können aber genutzt werden.

[9]

Daraus ergeben sich bereits während der Entwicklung Vorgaben für die technische Entwicklung: Das Basisdokument muss kompatibel zu den Mechanismen und Techniken des elektronischen Rechtsverkehrs (ERV) und über das besondere elektronische Anwaltspostfach (beA) versendbar sein. Aus dem strukturierten Parteivortrag heraus müssen elektronische Dokumente im Format PDF generierbar sein, die als Schriftsätze via ERV kommunizierbar sind. Ein Zugriff auf weitere Infrastruktur der Justiz (Server; Accounts; Datenverwaltung im Back-End; Integration in die elektronische Aktenverwaltung (eAkte)) ist für das Vorhaben zunächst ausgeschlossen.

4.

Evaluationsmethoden ^

[10]

Zunächst ist zu klären, aus welchen Perspektiven die Evaluation erfolgt. Aus Sicht der Mensch-Maschine-Interaktion ist die nutzerzentrierte Entwicklung (User Centered Design, UCD) als etablierte und standardisierte5 Entwicklungsmethode das methodische Rückgrat der Systementwicklung und setzt die Evaluation während sämtlicher Entwicklungsphasen sowie im Anschluss daran voraus.

[11]

Aus Sicht der beteiligten Ministerien als Träger des Projektes steht die Auswertung mit Blick auf die rechtspolitischen Ziele im Mittelpunkt: Hier geht es um die Frage, ob hinsichtlich der Effizienz und Effektivität des Rechtswesens bzw. der Justiz durch die Strukturierung des Parteivortrags und dessen Unterstützung durch Informationstechnologie Vorteile zu erwarten sind, die eine Änderung der Gesetzgebung (z.B. Vorgabe der Strukturierung in der Zivilprozessordnung) als angemessen erscheinen lassen.

[12]

Insbesondere von europäischer Seite wird darauf hingewiesen, dass Effizienzaspekte zukünftig bei der Bemessung der Leistungsfähigkeit der Justiz eine größere Bedeutung spielen sollten.6 Wichtig ist dabei die Klarstellung, dass dadurch Justizgrundrechte und Prozessmaximen keinesfalls beschnitten werden dürfen.7

4.1.

Rahmenbedingungen der Evaluation ^

[13]

Im November 2022 starteten Workshops für die verschiedenen Zielgruppen (Ministerien/Justizverwaltung, Anwaltschaft, Richterschaft), um die möglichen Nutzer noch stärker einzubinden, Ideen für das weitere konkrete Vorgehen aufzunehmen und gleichzeitig um eine Beteiligung zu werben. Testgerichte in den beiden Bundesländern wurden bereits gefunden (Bayern: Landgerichte Landshut und Regensburg, Niedersachsen: Landgerichte Hannover und Osnabrück). Im Januar und Februar 2023 wird das Projekt bei den vier ausgewählten Landgerichten vor Ort vorgestellt. Im Anschluss beginnt die eigentliche Testphase (das Reallabor i.e.S.), die insgesamt etwa zwölf Monate dauern soll. Sobald erste Testfälle gefunden sind, beginnt begleitend die Evaluation. Eine besondere Herausforderung wird sein, Rechtsanwältinnen und Rechtsanwälte für das Vorhaben zu gewinnen. Dazu werden gezielte Kommunikationsmaßnahmen erfolgen (z.B. Einführungsworkshops, Online-Informations- und Schulungsangebote).

4.2.

Forschungsfragen ^

[14]

In seinem weiteren Verlauf soll das Forschungsprojekt der Erprobung des elektronischen Basisdokuments unter echten Bedingungen dienen. Dabei ergeben sich zunächst aus Sicht des Software bzw. Usability Engineering u.a. folgende Forschungsfragen:

  • Wie benutzerfreundlich ist die vorliegende Software für die unterschiedlichen Zielgruppen hinsichtlich Effektivität, Effizienz, Zufriedenheit?
  • Wie hoch ist die Akzeptanz des Basisdokuments für die unterschiedlichen Zielgruppen?
  • Wird die Akzeptanz der verschiedenen Zielgruppen durch die Erfahrung mit dem vorliegenden elektronischen Basisdokument gesteigert?
[15]

Hinzu kommen die übergeordneten regulatorischen Erkenntnisinteressen zur weiteren Ausgestaltung des Zivilprozesses, die wir in Kap. 5 näher betrachten. Die hier entwickelte Software ist insofern nur ein Vehikel zur Klärung der Fragen der Rechtsgestaltung, ob und wie sich z.B. eine stärkere Strukturierung im Zivilprozess einführen ließe, wie dies in anderen Rechtsordnungen durchaus üblich ist. Die Studie ist dabei grundsätzlich ergebnisoffen angelegt. Ganz unterschiedliche Ergebnisse sind denkbar, etwa dass trotz einer gebrauchstauglichen Software dennoch keine hinreichenden Hinweise auf den Nutzen einer verpflichtenden Strukturierung gefunden werden oder auch umgekehrt, dass zwar Defizite der Technikunterstützung (durch einen Prototyp!) deutlich werden, aber dennoch erkannt wird, dass eine bestimmte Strukturierungsform aufgegriffen und gesetzlich verankert werden sollte.

4.3.

Grundlegende Fragen zur Evaluation und Auswahl von Methoden ^

[16]

Zur Evaluierung stehen unterschiedliche Methoden zur Verfügung. Für die Auswahl geeigneter Methoden bietet es sich an, zunächst wesentliche Unterscheidungskriterien einzuführen:

[17]

Hinsichtlich der gewonnenen Daten ist zwischen quantitativ und qualitativ zu unterscheiden. Quantitative Daten entstehen beispielsweise durch Messungen (Bearbeitungsdauer, Anzahl von Bearbeitungsschritten) oder als numerisches Ergebnis standardisierter Usability-Fragebögen wie SUS8 (System Usability Scale) oder UEQ9 (User Experience Questionnaire) zur subjektiven Einschätzung der Usability oder dem TAM-Fragebogen10 (Technology Acceptance Model) zur Erhebung der Akzeptanz. Qualitative Daten sind nicht-numerische Ergebnisse wie Aussagen aus Interviews oder Umfragen. Methoden, die qualitative Daten sammeln, können zur Beantwortung weiterer Fragestellungen (etwa: Wo sehen die Befragten die Mehrwerte? Wo treten Probleme auf? Wie verändert die Anwendung die Arbeitsweise?) eingesetzt werden.

[18]

Dabei sind folgende Fragen offen:

  • Wie sollen die Erhebungen zeitlich erfolgen, da ein Verfahren mehrere Monate bis hin zu mehreren Jahren dauern kann?
  • Wann ist der ideale Zeitpunkt der Erhebungen im Hinblick auf die jeweiligen Forschungsfragen?
  • Wie erfolgt die Rekrutierung der Teilnehmer (Anwältinnen und Anwälte der Klageseite; Anwältinnen und Anwälte der Beklagtenseite; Richterinnen und Richter)?
  • Wann und über welche Kanäle startet eine Rekrutierung der verschiedenen Zielgruppen?
  • Wie ist die zeitliche Planung der Erprobungsphase generell vorzunehmen?
[19]

Da die Beteiligung freiwillig ist und das Basisdokument in Ergänzung zum Regelablauf im Zivilprozess getestet werden soll, ist der zeitliche Ablauf vergleichsweise schlecht planbar: Um einen Zivilprozess durch die Basisdokumentsoftware unterstützen bzw. begleiten zu können, ist es im Rahmen dieses Reallabors erforderlich, dass alle drei beteiligten Parteien (Klagepartei, Beklagtenpartei, Gericht) damit einverstanden und bereit und in der Lage sind, die Software für die Erstellung des Basisdokumentes zu nutzen. Der Prototyp wurde so gestaltet, dass er auf der Basis der etablierten Kommunikationswege (beA) eingesetzt werden kann. Hinzu kommt der im Unterschied zu planbaren empirischen Studien praktisch nicht absehbare zeitliche Verlauf eines Zivilprozesses.

4.3.1.

Auswahl nach Erkenntnisinteresse ^

[20]

Neben den Methoden zur Erhebung der Usability spielt die Identifikation geeigneter Usability-Metriken eine Rolle. Generell können Daten gesammelt werden, die sich auf das Verhalten bzw. die Performanz des Nutzers in der Interaktion beziehen sowie Daten, die sich auf ihre Meinungen und Gedanken beziehen.

[21]

Tullis/Albert11 geben einen Überblick über verfügbare Usability-Metriken sowie die gängigsten „Szenarien“ in Usability-Studien im Sinne von Erkenntnisinteressen innerhalb eines Projekts. Bei der Bewertung des Basisdokuments im Sinne der Gebrauchstauglichkeit stehen zwei Ziele im Fokus: Die Identifikation von Problemen sowie die übergreifende Einschätzung der wahrgenommenen Usability. Zur Aufdeckung von Usability-Problemen empfehlen Tullis/Albert folgende Maße: Usability-Problem-basierte Metriken sowie Metriken, die auf Selbstauskunft basieren; zu den weitergehenden regulatorischen Erkenntnisinteressen aus der Perspektive der Rechtswissenschaft siehe unten Kap. 5.

4.3.2.

Usability-Probleme ^

[22]

Es gibt keine einfache Definition eines Usability-Problems, daher nähert man sich in der Regel durch eine Reihe von Beispielen an eine Spezifizierung des Begriffs an.12 Beispiele für Usability-Probleme sind:

  1. Alles, was die Aufgaben-Ausführung verhindert.
  2. Alles, was den Nutzer bei der Aufgabenausführung behindert oder ihn auf Umwege leitet.
  3. Alles, was zu Verwirrung oder Unklarheiten führt.
  4. Alles, was einen Fehler produziert.
  5. Alles Wichtige, das übersehen wird.
[23]

Zur präzisen Erfassung eines Usability-Problems in einem Projekt wird dessen Zweck möglichst genau spezifiziert. Bei der Evaluation des Konzepts des Basisdokuments wird die Erhebung von Problemen dabei helfen, einerseits kleinere Verbesserungen während des Projekts vorzunehmen und andererseits eine abschließende Liste an notwendigen Optimierungen und Erweiterungen der Funktionalität zu gewinnen, um eine mögliche Weiterentwicklung der Anwendung zu einem späteren Zeitpunkt zu unterstützen.

4.3.3.

Positive Usability-Beobachtungen ^

[24]

Neben negativen Beobachtungen, bei welchen Ereignissen die effiziente Aufgabenausführung der Nutzer des Basisdokuments verhindert wird oder Nutzer durch bestimmte Aspekte verwirrt sind, besteht die Möglichkeit, dass die Anwendung die Erwartungen der Nutzer übertrifft oder Aufgaben besonders effizient und zufriedenstellend umgesetzt sind. Auch diese positiven Usability-Beobachtungen sollten erhoben werden, um sicherzustellen, dass genau diese Funktionalitäten und Aspekte erhalten und ausgebaut werden.

4.3.4.

Metriken, die auf Selbstauskunft basieren ^

[25]

Bei auf Selbstauskunft basierenden Metriken werden die Nutzer zu ihrer Erfahrung mit einer Anwendung befragt. Das kann in verschiedenen Formen geschehen, über offene Fragen, über Aussagen, die bewertet werden, oder über umfassende Usability-Fragebögen, die alle wichtigen Aspekte standardisiert erheben.

4.4.

Verfügbare Erhebungsmethoden im Einzelnen ^

[26]

Preece/Rogers/Sharp13 geben einen Überblick über verschiedene Datenerhebungsmethoden und deren Vor- und Nachteile. Die nachfolgende Tabelle 1 fasst die wichtigsten Eigenschaften der verschiedenen Methoden zusammen. Die Feldbeobachtung und die Beobachtung in einem kontrollierten Umfeld können für das Reallabor ausgeschlossen werden, da ein Zivilprozess wegen mangelnder Ressourcen sowie aus Datenschutzerwägungen vermutlich nicht systematisch von den Forschern direkt observiert oder automatisch erfasst werden kann. Die anderen in Tabelle 1 genannten Methoden werden in den folgenden Abschnitten genauer erklärt und mögliche Einsatzzwecke innerhalb des Reallabors erläutert. Daneben bieten sich auch weitere Methoden an, etwa das Shadowing14 als Sonderfall einer Feldbeobachtung, bei dem ein Beobachter die jeweils handelnde Person, die mit dem Basisdokument arbeitet, wie ein Schatten begleitet und dabei beobachtet. Durch die Durchführung im Reallabor sind andererseits Laborstudien unter kontrollierten Bedingungen, wie sie in der Usability-Forschung ähnlich wie in der experimentellen Psychologie üblich sind, ausgeschlossen. Dies hat den Vorteil einer höheren ökologischen Validität bzw. Allgemeingültigkeit des Experiments, da Laborstudien gerade durch ihre kontrollierten Rahmenbedingungen weniger übertragbare Ergebnisse liefern.

Methode Datentyp Geeignet für
(Einzel-)Interviews qualitativ/einige quantitative Daten Exploration von Problemen
Fokusgruppen qualitativ/einige quantitative Daten Einbeziehung verschiedener Standpunkte
Fragebögen quantitativ und qualitativ Beantwortung spezifischer Fragen
Feldbeobachtung überwiegend qualitativ Nutzungskontext verstehen
Beobachtung in einem kontrollierten Umfeld quantitativ und qualitativ Details von Aufgaben/Handlungen verstehen
Indirekte Beobachtung (automatisches Loggen oder Tagebuchstudie) quantitativ (Loggen) und qualitativ (Tagebuchstudie) Details von Aufgaben/Handlungen verstehen, ohne die Aktivität selbst zu stören

Tabelle 1: Überblick über Erhebungsmethoden (nach Preece/Rogers/Sharp et al.15)

4.4.1.

Interviews ^

[27]

Es gibt zwei Hauptformen der direkten Befragung der Zielgruppe, das individuelle (Einzel-)Interview und das Fokusgruppen-Interview, in dem mehrere Interviewpartner in einer Gruppendiskussion befragt werden. Daneben können Interviews unterschiedlich „formell“ geführt werden. Hierbei gibt es drei Abstufungen nach Strukturierungsgrad, das unstrukturierte und das semistrukturierte Interview sowie die vollstrukturierte Befragung.16 Am geeignetsten für die geplanten Befragungen in diesem Kontext scheint das semistrukturierte Interview, wobei jedem Teilnehmer die gleiche Liste an vorgegebenen Fragen gestellt wird, jedoch in freier Reihenfolge, abhängig von der Entwicklung des Gesprächs. Zusätzliche Fragen und Nachfragen können an jeder Stelle eingefügt werden. Dieser Typ von Interview bietet durch seine Flexibilität die Möglichkeit, Themen und Probleme aufzudecken, die bei einem vollstrukturierten Interview möglicherweise nicht aufgedeckt werden, da sie erst im Moment des Interviews entstehen.17 Gleichzeitig kann durch das vorgegebene Set an Fragen der Forschungsfrage nicht nur in der „Tiefe“ sondern auch in der „Breite“ nachgegangen werden, d.h. es können individuelle Fragen und Details der Nutzung exploriert werden. Alle relevanten Themenbereiche werden von allen Interviewteilnehmern beleuchtet.

[28]

Ein Nachteil bzw. eine Herausforderung der Erforschung mithilfe von Interviews sind die großen Ressourcen, die sowohl bei der Durchführung als auch bei der Auswertung der Interviews benötigt werden. Die Überführung der Notizen und Rohdaten der Interviews in breitere Fragestellungen und Kategorien zur Auswertung kann bis zu zehn Stunden für eine aufgezeichnete Interviewstunde in Anspruch nehmen.18 Daher kann mit Befragungen nur eine kleine Anzahl an Probanden untersucht werden.

4.4.2.

Fokusgruppen ^

[29]

Eine ressourceneffiziente Alternative zu Einzelinterviews stellen Gruppeninterviews dar, denn hierbei können bis zu zwölf Probanden gleichzeitig interviewt werden. Typischerweise sind die Leitfäden hier semistrukturiert oder unstrukturiert. Ein besonderer Mehrwert der Methodik ist die Möglichkeit, sehr unterschiedliche Standpunkte und Einsichten zu erheben. Durch die interaktive und dynamische Situation, in der einander widersprechende Meinungen aufeinander treffen, ergeben sich oft Themen und Antworten, die in einem individuellen Interview nicht zu Sprache gekommen wären.19

[30]

Ein Nachteil der Methodik ist die längere Zeit pro Frage, die die Beantwortung durch die Gruppe und ihre Diskussion erfordert. Im Vergleich zu einem Einzelinterview können so insgesamt weniger Fragen gestellt und Themen diskutiert werden. Aus diesem Grund sollten Fokusgruppen in diesem Forschungskontext nur ergänzend eingesetzt werden, um bestimmte Konfliktthemen, die in den individuellen Befragungen entdeckt werden, näher zu beleuchten und eventuelle Kompromisse und neue Lösungen zu explorieren.

4.4.3.

Fragebögen ^

[31]

Bei einer Umfrage wird ein definiertes Set von Fragen an einzelne Individuen einer Zielgruppe gesendet, die diese ohne Anwesenheit und Hilfe eines Forschers beantworten.20 Mit Fragebögen kann innerhalb kurzer Zeit eine große Zahl an Probanden befragt werden, was die wesentliche Stärke der Methode darstellt.21 Die Einsatzzwecke reichen von der Erhebung von Meinungen sowie Feedback über die Usability bis hin zu der genaueren Untersuchung von Nutzereigenschaften. Prinzipiell können mit einem Fragebogen dieselben Fragen untersucht und gestellt werden wie auch innerhalb eines Interviews. Eine der Kernfragen, um zu entscheiden, ob man eine Frage mittels Interview oder Fragebogen untersuchen sollte, ist die Motivation der Probanden, die Fragen zu beantworten. Wenn davon auszugehen ist, dass nur wenige Probanden ausführlich zu einer Fragestellung beitragen werden, ist es geeigneter, diese Thematik im Interview zu behandeln, sodass ein Moderator oder Forscher nachfragen und insistieren kann.22

[32]

Generell ist es ratsam, beide Methoden kombiniert durchzuführen, um eine methodische Triangulation zu erreichen, d.h. ein Phänomen wird durch unterschiedliche Methoden oder Perspektiven untersucht, um die erhaltenen Ergebnisse zu validieren.23

[33]

Neben eigenen, angepassten Fragen aus den Interviews können im Reallabor auch etablierte, standardisierte Fragebögen verwendet werden, um Aspekte der Usability quantitativ zu messen. Im Bereich Usability gibt es zahlreiche Fragebögen, die bereits getestet und validiert sind, wie die System Usability Scale und das User Experience Questionnaire (UEQ), vgl. oben Kap. 4.3.

4.5.

Bewertung ^

[34]

Eine Kombination verschiedener Methoden wird vorzugswürdig sein, um einen Mix aus quantitativen wie qualitativen Auswertungen zu erhalten (Mixed Methods Approach)24. Dabei ist bereits frühzeitig der entsprechende Methodenkanon zu entwickeln, was bei einem Projekt, das eine Erprobung unter echten Bedingungen zum Ziel hat und bei dem auch notwendige Nachjustierungen während des Projekts zu erwarten sind, nicht gerade einfach ist. Neben inhaltlichen Fragen (welche Methode eignet sich für welches Erkenntnisinteresse?) und Fragen der praktischen Umsetzung (welche Methoden lässt die Praxis des Zivilprozesses überhaupt zu?) ist auch eine Abschätzung der Aufwände für Erhebung und Auswertung erforderlich. Gerade qualitative Methoden (z.B. Interviews, Freitextfragen in Fragebögen, teilnehmende Beobachtung) ziehen bei Einsatz entsprechender Analyseverfahren (qualitative Inhaltsanalyse25, Grounded Theory26) aufwändige Prozesse der Kategorienbildung und der Codierung bei der Aufarbeitung des Materials nach sich.

5.

Das regulatorische Erkenntnisinteresse ^

[35]

Die Zugrundlegung der Terminologie des Bundeswirtschaftsministeriums zeigt zudem, dass es bei Reallaboren um mehr geht als die bloße Ermittlung der Gebrauchstauglichkeit bestimmter Anwendungsprogramme. Das Reallabor soll nicht nur Testraum für Innovation (m.a.W. für digitale Neuheiten) sein, sondern gleichermaßen für Regulierung. Daher sind Reallabore in diesem Sinne stets auch mit einem „regulatorischen Erkenntnisinteresse“ verbunden. Im Reallabor „Strukturvorgaben für den Parteivortrag im Zivilprozess“ geht dieses regulatorische Interesse dahin, dem Gesetzgeber konkrete Handlungsempfehlungen mit Blick auf die in der deutschen Rechtswissenschaft geführte Debatte um eine Strukturierung des Parteivortrags27 unterbreiten zu können.

[36]

Technischer Ausgangspunkt und Gegenstand der Erprobung ist dabei zunächst die Innovation eines Basisdokuments – eine unter vielen Ideen, digitale Werkzeuge zur Ordnung von Parteivorbringen nutzbar zu machen.28 Gleichwohl wird das hiesige Reallabor – trotz Auswahl eines spezifischen Strukturierungstools – als ein ergebnisoffenes und exploratives Projekt geführt werden, dessen Erkenntnisgewinn sich nicht notwendigerweise darauf beschränken muss, das Basisdokument in seinem Wert de lege ferenda zu beurteilen. Vielmehr sollen bei der Evaluation dieses nicht zuletzt qualitativen Experiments29 auch mögliche alternative Vorgehensweisen in den Blick genommen werden, die sich gegebenenfalls bei Testung des Basisdokuments als gangbarer herausstellen. Zudem treten zahlreiche rechtliche Problemfelder keineswegs nur bei der Nutzung des Basisdokuments auf, sondern sind dem Ansatz des strukturierten Parteivortrags in seiner Gesamtheit gemein.

[37]

Verdeutlicht sei dies anhand einiger exemplarischer Bedenken, die sowohl dem strukturierten Parteivorbringen als abstrakter Idee, wie auch dem Basisdokument als konkretem Vorstoß einer Umsetzung entgegengebracht werden: Beides sei jeweils mit einer Einschränkung der Gestaltungsfreiheit der Anwaltschaft verbunden30; es werde den Parteien zusätzliche Arbeit aufgebürdet, die eigentlich dem Gericht obliege31; die Beklagtenpartei drohe benachteiligt zu werden.32 Ließen sich durch den Testlauf im Rahmen des Reallabors derartige Befürchtungen erhärten oder ausräumen, so erlaubte dies über legislative Tendenzen bezüglich des Basisdokuments hinaus auch Rückschlüsse auf die Vorteilhaftigkeit etwaiger anderer Maßnahmen der Strukturierung des Parteivortrags. Nicht ohne Grund trägt das Projekt daher den umfassenden Namen „Reallabor Strukturvorgaben für den Parteivortrag im Zivilprozess“.

[38]

Die genannten Beispiele rechtspolitischer Vorbehalte verdeutlichen außerdem die Notwendigkeit zur weiteren Erforschung des strukturierten Parteivortrags. Alle genannten Überlegungen teilen ihre Konzentration auf Nachteile, mit denen potenzielle Nutzerinnen und Nutzer des Basisdokuments konfrontiert sein könnten. Zwar werden zur Untermauerung regelmäßig rechtliche Maximen angeführt, die bedroht seien, etwa der Beibringungsgrundsatz, der Gefahr laufe, „verwässer[t]“ zu werden33 oder die prozessuale Waffengleichheit, die beschnitten würde34, nichtsdestoweniger handelt es sich um Fragen eines subjektiven Empfindens künftiger Nutzerinnen und Nutzer, über dessen Beantwortung aus einer Außensicht heraus allenfalls gemutmaßt werden kann. Fruchtbarer werden daher die Erfahrungen der tatsächlichen Nutzerinnen und Nutzer sein, die diese im Testbetrieb unter Realbedingungen sammeln können. Schon aus rechtspolitischer Sicht ist damit eine Nutzerzentrierung unabdingbar, möchte man zielgerichtetere Antworten auf bestimmte juristische Fragestellungen erlangen, die den persönlichen Eindruck des Einzelnen adressieren.

[39]

Jenseits dieser Fragestellungen mit grundsätzlicher Bedeutung darf allerdings nicht in den Hintergrund geraten, dass es das Basisdokument ist, das „ins Reallabor geht“. Demgemäß wird ein wesentliches Augenmerk auf der Erforschung einer sinnvollen konkreten Ausgestaltung für das Basisdokument liegen. Dabei soll der Fokus jedoch nicht auf einer detailreichen Austarierung und Weiterentwicklung der Software des genutzten Prototyps liegen – es handelt sich insofern nicht um eine typische Software-Evaluation –, sondern auf der Erlangung regulatorischer Aufschlüsse für die Zukunft. Die technikoffene Grundkonzeption des Basisdokuments35 soll im Rahmen der Evaluation des Reallabors nicht verlassen werden. Insbesondere soll keine Empfehlung einer bestimmten Softwarelösung erfolgen. Damit einhergehend werden sich auch Rechtsnormen mit technologischem Hintergrund, etwa diejenigen, die den elektronischen Rechtsverkehr umsetzen (§ 130a ZPO sowie Normen der ERVV36), jedenfalls insoweit einem möglichen Vorschlag an den Gesetzgeber entziehen, als die dortige Technikwahl (z.B. Dateiformate PDF, TIFF, § 2 Abs. 1 ERVV) nicht prinzipiell bewertet werden soll. Stattdessen sollen aus der Evaluation der Studie heraus Entscheidungstendenzen für die Regelung bestimmter zivilprozessualer Fragen ohne spezifisch technischen Einschlag angeboten werden (z.B.: Welcher sachliche [in welchen Verfahren?] und zeitliche [in welchem Verfahrensstadium?] Anwendungsbereich kann möglicherweise eingegrenzt werden?).

[40]

Auf dieser Grundlage könnte schließlich ein Regelungskonzept entstehen, das die Potenziale der Idee eines digitalen Basisdokuments möglichst optimal ausschöpft. Erst wenn aus einer Mikroperspektive heraus ein sinnvoller rechtlicher Rahmen für das Basisdokument gefunden ist und damit klar wird, was dieses hypothetisch leisten kann, wird aus einer Makroperspektive heraus ein abschließender Vergleich zu Alternativlösungen möglich sein.

6.

Ausblick ^

[41]

Das anzuwendende Methodenspektrum ist für die Aussagekraft des Vorhabens von besonderer Bedeutung und muss aus verschiedenen Gründen (begrenzte zeitliche Ressourcen der Teilnehmer und der Auswertenden; Zeitpunkt der Erhebung in einem unter Umständen lang dauernden Prozess) präzise an die besondere Untersuchungssituation angepasst werden. Aus den genannten methodischen Alternativen werden wir daher eine sinnvolle Methodenkombination im Sinne des Mixed Methods-Ansatzes auswählen.

[42]

Die in diesem Vorhaben besondere Verschränkung von Bewertung eines technischen Artefaktes (Softwareprototyp für das Basisdokument) mit übergeordneten regulatorischen Erkenntnisinteressen bei Erprobung im Reallabor stellt jedenfalls eine Herausforderung dar, bei der die Rechtsinformatik als Methodenwissenschaft in ihrer gesamten interdisziplinären Breite gefordert ist.

  1. 1 Mielke/Wolff, Der strukturierte Parteivortrag im Zivilprozess. In: Schweighofer/Saarenpää/Eder/Zanol/Schmautzer/Kummer/Hanke (Hrsg.), Recht DIGITAL – 25 Jahre IRIS, Tagungsband des 25. Internationalen Rechtsinformatik Symposions IRIS 2022, Editions Weblaw & Erich Schweighofer, Bern 2022, S. 195–204.
  2. 2 Mielke/Wolff, Entwicklung eines digitalen Basisdokuments. In: Schweighofer/Saarenpää/Eder/Zanol/Schmautzer/Kummer/Hanke (Hrsg.), Recht DIGITAL – 25 Jahre IRIS, Tagungsband des 25. Internationalen Rechtsinformatik Symposions IRIS 2022, Editions Weblaw & Erich Schweighofer, Bern 2022, S. 205–214.
  3. 3 BMWi Bundesministerium für Wirtschaft und Energie (Hrsg.), Freiräume für Innovationen. Das Handbuch für Reallabore, Berlin 2019.
  4. 4 Vgl. BMWi (Fn. 3), S. 7.
  5. 5 Vgl. die internationale Norm ISO 9241-210:2019(en): Ergonomics of Human-System Interaction – Part 210: Human-Centred Design for Interactive Systems, https://www.iso.org/standard/77520.html.
  6. 6 Siehe EU-Justizbarometer 2016 vom 11. 4. 2016 KOM(2016) 199 endg., S. 7 unter 3.1.
  7. 7 Althammer, ZVglRWiss 119 (2020), 197 (198).
  8. 8 Peres/Pham/Phillips, Validation of the System Usability Scale (SUS): SUS in the Wild, Proceedings of the Human Factors and Ergonomics Society, 2013, S. 192–196.
  9. 9 Schrepp/Thomaschewski/Hinderks, Construction of a Benchmark for the User Experience Questionnaire (UEQ), International Journal of Interactive Multimedia and Artificial Intelligence, 4(4), 2017, 40–44.
  10. 10 Davis, Perceived Usefulness, Perceived Ease of Use, and User Acceptance of Information Technology MIS Quarterly, Vol. 13, No. 3 (Sep. 1989), S. 319–340.
  11. 11 Tullis/Albert, Measuring the User Experience, Elsevier, Amsterdam 2008.
  12. 12 Tullis/Albert (Fn. 11), S. 100.
  13. 13 Preece/Rogers/Sharp, Interaction Design: Beyond Human-Computer Interaction, Hoboken, NJ, John Wiley & Sons, 2011.
  14. 14 Martin/Hanington, Universal Methods of Design, Beverly, MA, Rockford Publishers, 2012, S. 158 f.
  15. 15 Preece/Rogers/Sharp (Fn. 13), S. 261.
  16. 16 Lazar/Feng/Hochheiser, Research Methods in Human-Computer Interaction, Amsterdam, Elsevier, 2017, S. 187.
  17. 17 Lazar/Feng/Hochheiser (Fn. 16), S. 198 f.
  18. 18 Vgl. Robson/McCartan, Real World Research: A Resource for Social Scientists and Practitioner-Researchers, Hoboken, NJ, Wiley-Blackwell, 2002.
  19. 19 Lazar/Feng/Hochheiser (Fn. 16), S. 204.
  20. 20 Lazar/Feng/Hochheiser (Fn. 16), S. 105.
  21. 21 Preece/Rogers/Sharp (Fn. 13).
  22. 22 Preece/Rogers/Sharp (Fn. 13), S. 238.
  23. 23 Preece/Rogers/Sharp (Fn. 13), S. 225.
  24. 24 Kukartz, Mixed Methods. Methodologie, Forschungsdesigns und Analyseverfahren. Springer VS, Wiesbaden, 2014.
  25. 25 Mayring, Qualitative Inhaltsanalyse, 13. Aufl., Beltz Verlagsgruppe, 2022.
  26. 26 Glaser/Strauss, Grounded Theory: Strategien qualitativer Forschung, 3. Aufl., Bern 2010.
  27. 27 Zu der Diskussion bereits eingehend Mielke/Wolff (Fn. 1), S. 195 f.
  28. 28 Vgl. etwa das strukturierte elektronische Verfahren (seV) nach Heil, IT-Anwendung im Zivilprozess, Mohr Siebeck, Tübingen 2020, S. 85 ff.; elektronische Strukturformulare, Fries, Verbraucherrechtsdurchsetzung, Mohr Siebeck, Tübingen 2016, S. 145; ein elektronisches Formularverfahren, Weller/Köbler, Verfahrensgrundsätze und Modellregeln für die grundsätzlich elektronische Führung gerichtlicher Erkenntnisverfahren, Nomos, Baden-Baden 2016, S. 93 ff.; eine baumartige Visualisierung mittels Rulemappings, Breidenbach/Gaier, in: Breidenbach/Glatz (Hrsg.), Rechtshandbuch Legal Tech, 2. Aufl., C.H.Beck, München 2021, S. 286 ff.
  29. 29 Ein solches ist gerade auch durch die Unvoreingenommenheit des Untersuchenden sowie die Variabilität des Untersuchten gekennzeichnet, vgl. Kleining, in: Mey/Mruck (Hrsg.), Handbuch Qualitative Forschung in der Psychologie1, VS Verlag für Sozialwissenschaften, Wiesbaden 2010, S. 65 (68).
  30. 30 Zum Basisdokument: Heil, ZIP 2021, 502 (504): „Einbußen in der gestalterischen Freiheit“; Leinemann, NZBau 2021, 425 (426): „womit man den Parteien auch die Wahlfreiheit nimmt“; zu einem anderen Strukturierungsvorschlag: Hirtz, in: Ackermann/Gaier/Wolf, Gelebtes Prozessrecht – Festschrift für Volkert Vorwerk, Verlag Dr. Otto Schmidt, Köln 2019, S. 163 (167): „Eigenverantwortlichkeit des Rechtsanwalts empfindlich berührt“; aus einer generalisierten Perspektive Zwickel, in: Buschmann et al. (Hrsg.), Digitalisierung der gerichtlichen Verfahren und das Prozessrecht, Duncker & Humblot, Berlin 2018, S. 179 (199): „den Parteien größtmögliche Freiheit bei der Schriftsatzgestaltung zu belassen“.
  31. 31 Römermann, AnwBl 2021, 285 spricht im Kontext des Basisdokuments von der Anwaltschaft als „Hilfsorgan der Justiz“; Hirtz, NJW 2014, 2529 (2531) sieht die Strukturierung des Vortrags allgemein als „ureigene richterliche Aufgabe“.
  32. 32 Zum Basisdokument: Heil (Fn. 30), 505; generell postulierend, dass eine Bindung des Beklagten an die Ordnung des Klägers ausscheide: Zwickel, MDR 2016, 988 (991).
  33. 33 Hirtz (Fn. 31); ähnlich Schäfer, in: Ackermann/Gaier/Wolf, Gelebtes Prozessrecht – Festschrift für Volkert Vorwerk, Verlag Dr. Otto Schmidt, Köln 2019, S. 291 (299 f.).
  34. 34 Zwickel (Fn. 32); Heil (Fn. 26), S. 125 f.
  35. 35 Vgl. Arbeitsgruppe „Modernisierung des Zivilprozesses“, Modernisierung des Zivilprozesses – Diskussionspapier, hrsg. im Auftrag der Präsidentinnen und Präsidenten der Oberlandesgerichte, des Kammergerichts, des Bayerischen Obersten Landesgerichts und des Bundesgerichtshofs, Nürnberg 2021, https://www.justiz.bayern.de/media/images/behoerden-und-gerichte/oberlandesgerichte/nuernberg/diskussionspapier_ag_modernisierung.pdf, S. 39.
  36. 36 Verordnung über die technischen Rahmenbedingungen des elektronischen Rechtsverkehrs und über das besondere elektronische Behördenpostfach (Elektronischer-Rechtsverkehr-Verordnung – ERVV).