Rezension: Sascha Wolfer, Verstehen und Verständlichkeit juristisch-fachsprachlicher Texte.

Tübingen, Narr Verlag 2017, 312 Seiten.

  • Auteur-e: Markus Nussbaumer
  • Catégories d'articles: Comptes-rendus
  • Proposition de citation: Markus Nussbaumer, Rezension: Sascha Wolfer, Verstehen und Verständlichkeit juristisch-fachsprachlicher Texte., in : LeGes 29 (2018) 1
[1]

Die hier zu besprechende Arbeit (eine Dissertation) ist schwere Kost, besonders natürlich für Juristinnen und Juristen, die es nicht gewohnt sind, solche stark empirischen, in der Linguistik, Psycholinguistik und Kognitionswissenschaft beheimateten akademischen Karrierearbeiten zu lesen, auch wenn darin, wie hier der Fall, juristische Fachtexte untersucht werden. Es geht in der Arbeit darum, die Lese- und die Verstehensprozesse bei solchen Texten mit speziellen psycholinguistischen Methoden zu messen. Dabei wird das Lesen und Verstehen der Originaltexte verglichen mit dem Lesen und Verstehen von reformulierten Texten, das heisst von Fassungen dieser Texte, die gegenüber dem Originaltext in ganz bestimmten, für die Verständlichkeit möglicherweise ausschlaggebenden sprachlichen Konstruktionen verändert worden sind. Mit einer solchen Methode kann man den Einfluss dieser Konstruktionen auf den Lese- und Verstehensprozess empirisch erheben. Untersuchungskorpus sind Urteile des deutschen Bundesverfassungsgerichts, aber auch Pressemitteilungen der Gerichte und Zeitungsberichte über solche Urteile. Es geht also nicht um Texte der Rechtsetzung, sondern der Rechtsanwendung sowie auch um ausserrechtliche Texte über die Rechtsanwendung; gleichwohl verdient die Arbeit von ihrem Ansatz wie von den Resultaten her die Beachtung auch der rechtsetzend tätigen Fachwelt.1

[2]

In einem ersten Hauptkapitel stellt der Autor einige der einflussreichsten kognitionswissenschaftlichen Modelle des menschlichen Textverstehens vor. Ältere Verstehensmodelle operierten mit der «Container-Metapher»: Ein Text ist ein Behälter, dessen Inhalt der Autor in den Text getan hat. Verstehen heisst demnach, diesen Inhalt dem Text lediglich wieder zu entnehmen. Diese Modelle sind überholt. Kognitionswissenschaftliche Modelle erklären das Textverstehen als Interaktion zwischen einem Text, also einem sprachlichen Gebilde, und dem «Kopf» einer Leserin oder eines Lesers. Verstehen hat ganz viel mit Schlussfolgerungen der Lesenden, mit mentalen Konstruktionsprozessen zu tun, wobei Sprach- und Textwissen, Weltwissen, Erfahrungen, Erwartungen und so weiter wichtige Ressourcen für diese mentalen Schlussfolgerungs- und Konstruktionsprozesse darstellen. Ausführlich beleuchtet der Autor in diesem Kapitel die sogenannte Anaphernauflösung als eine zentrale Komponente bei der Konstruktion des Verstehens. Gemeint ist das Anbinden von Ausdrücken an früher im Text aufgetretene Ausdrücke, das Erkennen und mentale Herstellen von Koreferenz. Ein Beispiel (von Stefan Höfler) aus einem Entwurf des Elektrizitätsgesetzes: Art. 18 Das Bundesamt für Energie kann auf Antrag der Unternehmungen für genau bezeichnete Gebiete Projektierungszonen festlegen, um Grundstücke für künftige Starkstromanlagen freizuhalten. Art. 18a Kommen Eigentumsbeschränkungen nach Artikel 18 einer Enteignung gleich, so sind sie voll zu entschädigen. Vom Wortlaut her ist in Artikel 18 nicht von Eigentumsbeschränkungen die Rede. Die Anapher «Eigentumsbeschränkungen nach Artikel 18» auflösen und die beiden Bestimmungen zu einem sinnvollen Ganzen zusammenfügen kann nur, wer über einiges Vorwissen verfügt. Juristinnen und Juristen gelingt das vermutlich relativ leicht, andern Leserinnen und Lesern dürfte es schwerer fallen.

[3]
Das zweite Hauptkapitel stellt drei in der germanistischen Linguistik bekannte Verständlichkeitsmodelle vor, die teilweise kognitionswissenschaftliche Textverarbeitungsmodelle aufgreifen: das Hamburger Modell (Langer/Schulz von Thun/Tausch), das Modell von Groeben/Christmann und das Karlsruher Modell (Göpferich). Anschliessend werden auf knappem Raum typische Komplexitätsmerkmale der Rechtssprache kurz angesprochen, die immer wieder zur Begründung der angeblichen Schwerverständlichkeit von Rechtstexten ins Feld geführt werden: lange und oftmals mehrfach verschachtelte Sätze, Nominalisierungen, komplexe Nominalkonstruktionen, exzessive Attribuierungen usw. In diesem Kapitel werden aber auch Institutionen und Bemühungen in Deutschland, der Schweiz, Schweden und den USA beschrieben, Rechtstexte verständlicher zu machen. Und man findet einen kurzen Abriss der bekannten Debatte über die (Allgemein-)Verständlichkeit juristischer Texte: Kann man und soll man und wie soll man juristische Normtexte allgemeinverständlicher machen? – Dieses Kapitel ist thematisch sehr heterogen, sein Aufbau nicht eben einsichtig; die Themen werden angeschnitten, aber keineswegs erschöpfend behandelt. Man bleibt etwas ratlos, worauf das Ganze hinauslaufen soll.
[4]
Von nun an aber steuert die Arbeit auf ihre zentrale Thematik zu: Das nächste Hauptkapitel führt in die Methode der Blickbewegungsmessung (Eyetracking) ein, die so funktioniert, dass beim Lesen eines Textes am Bildschirm die Augenbewegungen von einer Maschine aufgezeichnet werden: Wie schnell gehen die Augen vorwärts, wo und wie lange verharren sie an einer bestimmten Textstelle, wo und wie oft springen sie zurück, wohin genau springen sie zurück? Dabei wird angenommen, dass solche Augenbewegungen einen Zusammenhang haben mit kognitiven Verstehensprozessen, dass also zum Beispiel ein Zurückspringen der Augen ein Indiz dafür sein kann, dass eine Anapher nicht auf Anhieb aufgelöst werden kann (siehe oben).
[5]
Anschliessend wird das «Freiburg Legalese Reading Corpus» vorgestellt. Es wurde für solche psycholinguistische empirische Studien zusammengestellt und enthält zum einen Originaltexte – Urteile des deutschen Bundesverfassungsgerichts, Pressemitteilungen des Gerichts und Zeitungsartikel über Urteile – und zum andern «Reformulierungen», und zwar einerseits moderate und andererseits radikalere Veränderung der Originaltexte in ganz bestimmten Bereichen sprachlicher Komplexität. So geht es bei den Reformulierungen z. B. darum, Nominalisierungen mit komplexen Nominalphrasen in Verbalkonstruktionen aufzulösen, wie in folgendem Beispiel (aus dem Buch): Die Änderungskompetenz des Bundes ist an die Beibehaltung der wesentlichen Elemente der in dem fortbestehenden Bundesgesetz enthaltenen Regelung geknüpft. > (moderat reformuliert) Die Änderungskompetenz des Bundes ist daran geknüpft, die wesentlichen Elemente der Regelung beizubehalten, die in dem fortbestehenden Bundesgesetz enthalten sind. > (stark reformuliert) Die wesentlichen Elemente der Regelung, die in dem fortbestehenden Bundesgesetz enthalten sind, müssen beibehalten werden. Daran ist die Änderungskompetenz des Bundes geknüpft. Der Autor beschreibt ausführlich mit linguistischen Mitteln sowohl die sprachstrukturellen Unterschiede zwischen den Originaltextsorten (Urteile, Pressemitteilungen, Zeitungsartikel) wie auch diejenigen zwischen den Originaltexten und den reformulierten, den «vereinfachten» Texten.
[6]
Im ersten Kapitel mit den Ergebnissen der eigenen Untersuchung werden die «Verhaltensdaten» vorgestellt. Das sind «nicht-blickbewegungs-basierte» Grössen wie Gesamtlesedauer sowie die sogenannte Antwortperformanz, also eine Auswertung der Antworten der Versuchspersonen auf ihnen gestellte Fragen zum Text und der Lösungen von Aufgaben, die den Probandinnen und Probanden zum Text gestellt wurden. Im zweiten Ergebnis-Kapitel folgen sodann die Resultate der Blickbewegungsmessung. Die gesamte Präsentation der Ergebnisse ist hoch technisch, mit sehr viel Statistik durchsetzt und nur für Spezialistinnen und Spezialisten verdaulich.
[7]
Da ist man froh, im letzten Kapitel unter der Überschrift «Implikationen» eine sehr vorsichtige Deutung einiger Ergebnisse und einige Schlussfolgerungen für die Arbeit an der Sprachstruktur und damit an der Verständlichkeit von juristischen Fachtexten lesen zu können. Hier findet man zum Beispiel Folgendes: Nominalisierungen werden in der Tat langsamer verarbeitet; sie bewirken regelmässig Verzögerungen bei der Rezeption. Bei Reformulierungen wurden Nominalisierungen in verbale Strukturen umgewandelt. Nun könnte man vermuten, dass sich dabei die Komplexität weg von den Nominalisierungen und hin zu den verbalen Strukturen verschieben würde und deshalb Letztere nun umso langsamer verarbeitet würden. Das scheint jedoch nicht der Fall zu sein. Das heisst: Diese Reformulierungen (Verbalisierungen von ursprünglichen Nominalisierungen) beschleunigen den Leseprozess im Ergebnis signifikant. Oder man findet die Erkenntnis, dass sich rechts an das zentrale Nomen angeschlossene, in sich verschachtelte Genitivattribute (siehe das Beispiel oben) besonders verlangsamend auf den Leseprozess auswirken. Und man findet noch einiges mehr von dieser Art.
[8]

Der Autor ist sehr vorsichtig, wenn es darum geht, aus Befunden über den Leseprozess Schlüsse zu ziehen über die Verständlichkeit und das Verstehen. Seine empirischen Ergebnisse sagen etwas aus über den Leseprozess, ob dieser schnell oder langsam abläuft, mit Unterbrüchen, mit Zurückspringen und so weiter. Rückschlüsse auf das effektive Verstehen sind hingegen heikel. Wolfer: «Wenn ein Text langsamer gelesen wird, heisst das nicht gleichzeitig, dass er weniger verständlich ist.» Es gibt sogar Indizien, dass es manchmal umgekehrt sein könnte: «Je länger eine fragenrelevante Textstelle gelesen wird, desto eher wird die dazugehörige Frage korrekt beantwortet.» Was langsam gelesen wird, scheint (aufgrund der Antworten auf Fragen) auch besser verstanden worden zu sein. Oder man findet Folgendes: Kürzere Sätze werden tendenziell schneller gelesen. Eine zu starke Zerstückelung führt jedoch auch dazu, dass die Augen öfter zurückwandern, was ein Indiz dafür ist, dass mehr Aufwand für die Herstellung von Koreferenz (Auflösung von Anaphern) betrieben werden muss.

[9]
Die grosse Zurückhaltung gegenüber voreiligen Schlüssen auf die Verständlichkeit und das Verstehen ist dem Autor sehr zugute zu halten. Man darf ihm dann allerdings den Vorwurf machen, dass der Titel seiner Arbeit («Verstehen und Verständlichkeit») etwas verspricht, was die Arbeit so nur in Ansätzen einzulösen vermag.
[10]
Zum Schluss sei aber eine Einsicht angeführt, die der Autor selber am Ende seiner Arbeit festhält und die vermutlich gar nicht so sehr aus seinen sehr aufwendigen empirischen Untersuchungen folgt: Sie bestätigt eine alte Weisheit jeder Gesetzesredaktion: Redaktionelle Pflege ist dann effektiv, wenn sie früh ansetzt. Man sollte also nicht einen Text, der zunächst aus langen Sätzen besteht, in einer späteren Überarbeitung zerstückeln müssen, sondern, so der Autor sehr zu Recht: «Vielmehr sollte man die Chance nutzen, frühzeitig im Formulierungsprozess gute Formulierungen zu finden. Eine von Anfang an ausgeglichenere Verteilung der zu vermittelnden Information über mehrere Sätze sowie deren effektive referenzielle Verknüpfung muss frühzeitig sichergestellt werden. Effektiv heisst hierbei insbesondere, nicht zu viele überschneidende referenzielle Beziehungen zu benutzen und insbesondere ambige Referenzbeziehungen zu vermeiden.» So ist es; das bestätigen wir doch gerne.

Markus Nussbaumer, Bundeskanzlei

  1. 1 Der Autor Sascha Wolfer hat an der wissenschaftlichen Tagung 2017 des Zentrums für Rechtsetzungslehre an der Universität Zürich zur «Guten Gesetzessprache» einen Workshop geleitet, in dem er seine Fragestellung und Methode auf rechtsetzende Texte anzuwenden versuchte; vgl. dazu den Tagungsbericht in LeGes 3/2017, S. 549 ff. sowie den Tagungsband: Felix Uhlmann (Hrsg.), Gute Gesetzessprache als Herausforderung für die Rechtsetzung. Zürich / St. Gallen (Dike) (erscheint 2018).