[1]
Agatha Christie ist eine Autorin, deren Detektivromane manchmal Fragen aufwerfen, die im Kopfe des nachdenklichen Lesers nachklingen – noch lange nachdem er gelesen hat, wie der Privatdetektiv Hercule Poirot scharfsinnig und listenreich einen Mord aufklärte. So kann es dem Leser auch mit dem RomanCards on the Table (1936) ergehen, der von einem Fall handelt, den Poirot einen seiner interessantesten genannt hat. In einem Vorwort bereitet Agatha Christie den Leser darauf vor, dass dieser Text anders sei als das, was er vermutlich von einem Detektivroman erwarte. Sie vergleicht einen Detektivroman mit einem Pferderennen. Welches Pferd wird das Rennen machen – wer wird als der Mörder entlarvt? Aber anders als beim Pferderennen gehe im Detektivroman in der Regel ein krasser Außenseiter durchs Ziel.Spot the least likely person to have committed the crime and in nine times out of ten your task is finished.
[2]
Das ist beiCards on the Table anders: es gibt keinen hervorstechend Verdächtigen und keinen Außenseiter. Ein reicher Mann hat vier Gäste zu einem Bridgeabend eingeladen. Als man sich verabschieden will, wird der Gastgeber erstochen aufgefunden. Jeder der Gäste hatte Gelegenheit, den Mord zu begehen, denn jeder hat gelegentlich – alsDummy – die Spielrunde verlassen. Jeder der Gäste hätte auch ein Motiv gehabt, denn jeder hatte zuvor schon einmal einen Menschen getötet und musste damit rechnen, dass Shaitana, so nannte sich der Gastgeber, an diesem Abend die Tat aufdecken werde. Eben wegen dieser Stimmung hatShaitana die Vier zusammengeführt – zu einer kleinen privaten Vorhölle. – Es steht fest, dass niemand außerhalb der Bridgerunde den Mord begangen haben kann.
[3]
Jehoshua Bar Hillel, ein bedeutender Logiker, Linguist und Informationstheoretiker des 20. Jahrhunderts, ließ sich vonCards on the Table zu einem Gedankenexperiment inspirieren.1 Dass dem Informationstheoretiker dieser Roman bemerkenswert erschien, sollte nicht wundernehmen, denn die Informationstheorie ist eng mit der Wahrscheinlichkeitstheorie verwandt. Das Gedankenexperiment: Auf die Überführung des Mörders wird eine Belohnung ausgesetzt. Nun kommt X und weist nach, dass Spieler A die Tat nicht begangen haben kann. Es folgt Y mit dem Nachweis, dass Spieler B nicht der Täter war. Schließlich erscheint Z, der die Unschuld von C beweist. D, der nun noch übrigbleibt, ist damit überführt. Er gesteht die Tat, wird als Mörder verurteilt und gehenkt, wie es in den dreißiger Jahren des 20. Jahrhunderts der Brauch war.2 Wie ist die Belohnung gerecht auf X, Y und Z aufzuteilen? Bar Hillels Leitgedanke: nach dem Maß an Information, mit dem jeder der drei zur Überführung des Mörders beigetragen hat. Doch wie bemisst man die Informationsbeiträge? Bar Hillel berichtet, er habe sechs Freunde und Kollegen vom Massachusetts Institute of Technology (MIT) gefragt, wie sie in diesem Falle verfahren würden. Er habe sechs verschiedene Antworten erhalten.
Einer wollte die Belohnung gleichmäßig zwischen A, B und C aufteilen. Er war ein Neuling am MIT, mit wenig Erfahrung in der Informationstheorie. Bei einem so einfachen Lösungsvorschlag kann man das wohl auch erraten.
Ein anderer würde alles dem Z zukommen lassen, denn erst dieser habe den Mörder D identifiziert. Auch ein Anfänger? Jedenfalls auch ein verdächtig einfacher Vorschlag.
Ein Dritter würde die Belohnung gemäß der Proportion 1/4 zu 1/3 zu 1/2 aufteilen. Und zwar deshalb, weil X einen Verdächtigen von vieren ausgeschlossen hat, Y einen von dreien und Z einen von zweien. Dementsprechend habe X weniger zur Aufklärung des Falles beigetragen als Y und Y wiederum entsprechend weniger als X.
Ein vierter stimmt, was die Wertung anlangt, grundsätzlich mit dem Dritten überein; doch würde er eine logarithmische Skala bevorzugen. Vielleicht eine Aufteilung im Verhältnis von 2 zu 4 zu 8 ? Das wäre ein Stück Skala gemäß dem Logarithmus dualis (21 zu 22 zu 23 ), der von Informationstheoretikern bevorzugt wird. Vielleicht dachte der Mann aber auch an etwas anderes.
Der fünfte, ein Iraner, meinte, wenn die Geschichte in seinem Land passiert wäre, ein paar Jahre zuvor, hätte der Staatsanwalt die Belohnung selber eingesteckt (Bar Hillel:«which is probably exaggerated»). Und was der sechste sagte, hat Bar Hillel, wie er gesteht, vergessen.
Ein anderer würde alles dem Z zukommen lassen, denn erst dieser habe den Mörder D identifiziert. Auch ein Anfänger? Jedenfalls auch ein verdächtig einfacher Vorschlag.
Ein Dritter würde die Belohnung gemäß der Proportion 1/4 zu 1/3 zu 1/2 aufteilen. Und zwar deshalb, weil X einen Verdächtigen von vieren ausgeschlossen hat, Y einen von dreien und Z einen von zweien. Dementsprechend habe X weniger zur Aufklärung des Falles beigetragen als Y und Y wiederum entsprechend weniger als X.
Ein vierter stimmt, was die Wertung anlangt, grundsätzlich mit dem Dritten überein; doch würde er eine logarithmische Skala bevorzugen. Vielleicht eine Aufteilung im Verhältnis von 2 zu 4 zu 8 ? Das wäre ein Stück Skala gemäß dem Logarithmus dualis (21 zu 22 zu 23 ), der von Informationstheoretikern bevorzugt wird. Vielleicht dachte der Mann aber auch an etwas anderes.
Der fünfte, ein Iraner, meinte, wenn die Geschichte in seinem Land passiert wäre, ein paar Jahre zuvor, hätte der Staatsanwalt die Belohnung selber eingesteckt (Bar Hillel:«which is probably exaggerated»). Und was der sechste sagte, hat Bar Hillel, wie er gesteht, vergessen.
[4]
Ist das nicht eine wunderschöne Geschichte? Doch gibt der Autor keine Auflösung an, sondern begnügt sich mit einer Anregung: «Die Geschichte könnte in nützlicher Weise in viele verschiedene Richtungen ausgearbeitet werden.» Sie steht auch nicht am Anfang eines Gedankengangs, sondern schließt ihn ab. Vielleicht lässt sich aber der eine oder andere Leser in umgekehrter Richtung auf den Weg locken, so dass er, vom Fall ausgehend, sich der Theorie der Informationsmessung zuwendet. Bar Hillels Gedankengang beginnt mit der These, dass der Informationsgehalt eines Satzes bestimmt werde durch das, was der Inhalt des Satzes ausschließt.3 Je mehr ausgeschlossen wird, desto mehr Information. Wenn Agatha Christie mitteilt, dass der Gastgeber Shaitana «erstochen» aufgefunden wurde, so schließt das jede andere Tötungsart, etwa das Erwürgen, aus. Den Informationsgehalt gemäß dem Inhalt einer Mitteilung bezeichnet Bar Hillel mit «Cont» (als Abkürzung von content).
[5]
Mitteilungen für sich genommen vermitteln manches, aber nicht alles, was man an Information erlangen kann. Dass der Spieler A nicht der Mörder ist, wie X nachweist, besagt für sich genommen wenig. Aber man kann den Nachweis im Zusammenhang damit bewerten, dass es mehrere Verdächtige gab. X stand vor einem Spielraum (Carnap:range ), der A, B, C oder D als mögliche Mörder umfasste.4 Von vier Möglichkeiten hat er eine ausgeschlossen. Auch das Ausschließen durch Einengung eines logischen Spielraums wird von Bar Hillel unter den Gedanke des Informationsgehalts gefasst. Den Gehalt einer Mitteilung bemisst er dabei unter dem Gesichtspunkt der «logischen Wahrscheinlichkeit» ihrer Wahrheit: Je wahrscheinlicher die Mitteilung wahr ist, desto weniger Information vermittelt sie. Wenn jemand zum Mord an Shaitana erklären würde: «Spieler A kann der Mörder sein oder auch nicht, und das gleiche gilt für B, C und D», so spräche er zwar mit Sicherheit die Wahrheit, nur wäre diese bar jeglicher Information und wertlos für die Aufhellung der Tat. Und umgekehrt gilt: Je weniger wahrscheinlich die Wahrheit einer Mitteilung ist, desto größer ist ihr Informationsgehalt. Wenn also jemand gleich zu Anfang nachgewiesen hätte, dass D, einer unter vier Gleichverdächtigen, der Mörder war, so wäre das eine wenig wahrscheinliche Erkenntnis gewesen mit entsprechend hohem Informationsgehalt. Diese zweite Form des Informationsgehalts einer Mitteilung «i» bezeichnet Bar Hillel mit cont(i) – kleingeschrieben. Im Unterschied zu Cont(i) kann man cont(i) einen numerischen Wert zuschreiben. Diesen Wert definiert Bar Hillel mittels der logischen Wahrscheinlichkeit der Wahrheit einer Information, wobei die Definition auch das komplementäre Verhältnis von logischer Wahrscheinlichkeit und Informationsgehalt sichtbar macht:
cont(i) =def 1 – p(i)
[6]
Auch für die logische Wahrscheinlichkeit gilt die Elementarformel der Wahrscheinlichkeitsrechnung:
p = Anzahl der günstigen Fälle / Anzahl der möglichen Fälle
[7]
Zum Beispiel: Bei einer Partie «Mensch ärgere dich nicht!» macht sich jemand anheischig, vorauszusagen, welche Zahl der Würfel beim jeweils nächsten Wurf zeigen wird. Eine solche Vorhersage hätte eine logische Wahrscheinlichkeit von 1/6 und mithin einen Informationsgehalt von 5/6. Würde er gar die Ergebnisse zweier aufeinanderfolgender Würfe prophezeien, so wäre damit eine Wahrscheinlichkeit von 1/36 (nämlich 1/6 mal 1/6) und ein Informationsgehalt von 35/36 verbunden: äußerst anspruchsvoll, beeindruckend freilich nur, wenn die Prophezeiung sich auch erfüllt. Dann aber würden die Mitspieler dem anderen genau auf die Finger schauen, und sie würden den Würfel in die Hand nehmen, um zu untersuchen, ob er wirklich einem «idealen» Würfel nahekommt und nicht irgendwie gefälscht ist.
[8]
Aber zurück zum Bridgefall. Jener X, der als erster einen Unschuldsbeweis zugunsten eines der Spieler vorlegt, steht vor der Konstellation, dass jeder der vier Spielermöglicherweise schuldig ist; während drei von ihnen mit Sicherheit unschuldig sind – letztere sind für den Beweis diegünstigen Fälle . Die logische Wahrscheinlichkeit für den Beweis beträgt also 3/4. Der nachfolgende Y hat nur noch drei mögliche Mörder vor sich; die logische Wahrscheinlichkeit für einen Unschuldsbeweis beläuft sich nunmehr auf 2/3. Und als schließlich Z auf den Plan tritt, beträgt die Wahrscheinlichkeit 1/2. Die entsprechenden Komplementärwerte für den Informationsgehalt sind 1/4, 1/3, 1/2. So gesehen, scheint also unter Bar Hillels Kollegen am MIT derjenige recht zu haben, der die Belohnung im Verhältnis 1/4 zu 1/3 zu 1/2 aufteilen würde.
[9]
Um das noch anzufügen: Für das Gelingen eines positiven Schuldbeweises gleich zu Anfang hätte sich die logische Wahrscheinlichkeit auf 1/4 belaufen, und der Informationsgehalt eines solchen Beweises hätte den Wert 3/4 gehabt.
[10]
Wir sind zu zwei verschiedenen Begriffen des Informationsgehalts gelangt,Cont undcont . Bar Hillel führt noch einen dritten Begriff ein:inf .
inf(i) = -log2 p(i)
[11]
Diese Definition wird in der sog. statistischen Informationstheorie typischerweise für den Informationsbetrag eines einzelnes Signals verwandt5 , und Bar Hillel verwendet sie jetzt für den Informationsgehalt einer einzelnen Mitteilung.
[12]
(Die statistische Informationstheorie ist aus der Theorie der Signalübertragung hervorgegangen.) Bar Hillel hat für seine Version der Informationstheorie einen anderen, «semantischen» Ansatz gewählt: Die grundlegende Dichotomie ist hier nichtSignal – kein Signal, sondern wahr – falsch . Er benutzt die Parallelität von Semantik und Statistik, um klassische Fragen der Informationstheorie zu erörtern, so die Bewertung bedingter Informationen und die Frage, wie Informationen zu bewerten sind, wenn von den möglichen Ergebnissen eines überraschender ist als andere (was ja, wie uns Agatha Christie versichert, bei Detektivromanen die Regel ist und was im wirklichen Leben auch vorkommt).
[13]
Wir wollen hier nicht auf diese Fragen eingehen, sondern nur angeben, was herauskommt, wenn man den zuletzt eingeführten Begriffinf für die Lösung des Bridgefalles verwendet. Zur Erinnerung an die Schulzeit sei zunächst angegeben, wie man den Logarithmus zur Grundzahl 2 (und entsprechend den Logarithmus zu jeder beliebigen Grundzahl) ausrechnet, auf Grund der üblichen Zehnerlogarithmen, die man heutzutage auf Taschenrechnern findet. Man dividiert den Logarithmus zur gewählten Zahl durch den Logarithmus von 2. Aus den cont-Quoten 1/4 zu 1/3 zu 1/2 ergeben sich so dieinf -Quoten 1 zu 1,6 zu 2. Vermutlich war es diese Aufteilung, die der oben an vierter Stelle angeführte MIT-Wissenschaftler im Sinn hatte. Diecont -Verteilung ist aber vorzuziehen (hier jedenfalls!), denn eine gerechte Entscheidung sollte nach Möglichkeit einfach und einleuchtend sein. Die Belohnung ist also in Neuntel zu zerstückeln. Sollte sie praktischerweise gleich 9'000 Euro betragen, so wird X 2'000, Y 3'000 und Z 4'000 Euro erhalten. Der Unterschied zu deninf -Quoten ist aber nur klein, wie sich sogleich zeigt, wenn man diese Werte, ihre Proportion beibehaltend, verdoppelt.
[14]
Bar Hillel glaubt, dass «ein numerisches Maß für Informationsgehalte nicht nur für die Wissenschaft von Interesse ist, sondern auch für Alltagssituationen». Vielleicht hat er ja recht: Die Geburt der Wahrscheinlichkeitsrechnung an den Spieltischen der französischen Aristokratie war einst auch nicht leicht. Der Bridgefall scheint mir den Nutzen der Informationstheorie für den Alltag freilich noch nicht zu bestätigen; denn das geltende Recht kommt mit einfacheren Lösungen aus. Nach dem Bürgerlichen Gesetzbuch ist die Aufteilung dem «billigen Ermessen» des Auslobenden anheimgestellt; sie darf lediglich nicht «offenbar unbillig» sein, sonst muss der Richter entscheiden, § 660 BGB. Auch wenn jedem an der Aufhellung des Bridgefalles Mitwirkenden ein gleicher Betrag zuerteilt würde, wie es einer der MIT-Wissenschaftler vorgeschlagen hat, so wäre das nicht «offenbar unbillig», ebenso nicht, wenn, einem anderen Vorschlag gemäß, derjenige, der zur Überführung des Mörders den Schlussstein setzte, die gesamte Summe erhielte. Im amerikanischen Recht verhält sich das bestimmt auch nicht anders.
[15]
Wenn ich gleichwohl der Meinung bin, dass Agatha Christies und Bar Hillels Fall von erheblicher praktischer Bedeutung ist, so deshalb, weil der Fall anregendes Spielmaterial hergibt für Aufgaben, die sich der gegenwärtigen Rechtswissenschaft stellen. Ich deute das hier nur an: Vier Leute haben an der Lösung des Falles mitgewirkt, und der Wille zur Aufklärung war bei jedem vermutlich gleich groß: trotzdem ist es sinnvoll, ihnen unterschiedlich große und dabei genau bemessene Beiträge zum Erfolg zuzurechnen. Bei dieser Art der Zurechnung geht es nicht um die Bewirkung eines Erfolges, sondern um seine Erklärung, und die späteren Beiträge erklären mehr als die früheren. Das lässt sich wohl am besten mit dem Ausdruck «objektive Zurechnung» charakterisieren, den Claus Roxin mit großem Erfolg in die Rechtswissenschaft eingeführt hat.6 In der heutigen Welt, in der Leistungen (im Guten wie im Bösen) immer weniger von einzelnen, sondern von mehreren in differenzierter Weise erbracht werden, sollte die Strukturierung von Information ein wichtiges Motiv einer der Zukunft zugewandten Rechtswissenschaft sein.7
[16]
Hinzu kommt noch etwas anderes, nicht minder wichtiges: Der hier vorgestellte semantische Informationsbegriff, der auf Carnaps Studien zur logischen Wahrscheinlichkeit und zur induktiven Logik zurückgeht und den Bar Hillel in Zusammenarbeit mit Carnap weiterentwickelt hat, wird von Karl Popper entschieden abgelehnt – genauer gesagt, Popper lehnt den Begriff als nutzlos für die Logik der empirischen Forschung ab.8 In unserem Zusammenhang geht es aber nicht um empirische Forschung, sondern um den Umgang mit Information in der Gesellschaft und im Recht. Das ist etwas ganz anderes, vor allem braucht eingeschränkte Information im Recht, anders als in der Naturwissenschaft, nicht negativ bewertet zu werden, oft ist das Gegenteil richtig. Unsere Rechtsordnung kennt Information in den verschiedensten Ausformungen, sei es als Pflichten: Aufklärungspflichten, Beobachtungspflichten, Mitteilungspflichten, Publikationspflichten, sei es als Rechte: auf Information und Publikation – und als Gegenrechte auf Zurückhaltung von Information und auf Schutz gegen Informationseingriffe von staatlicher und privater Seite. Die Zahl der Vorschriften, die sich verpflichtend, erlaubend, eingreifend, schützend auf Information richten, hat in den letzten Jahrzehnten enorm zugenommen. Und bei allen diesen Vorschriften geht es um Ausdehnung – und Einschränkung von Information. Besonders wirksam dabei ist der Impetus, der von der Verbindung von Information mit Technologie ausgeht. Es zeigt sich auch immer deutlicher, dass Information die Spiegelkategorie zu Freiheit ist, im Guten wie im Bösen. Das Handy beispielsweise, das man angeschaltet bei sich trägt, kann so etwas wie eine elektronische Fußfessel sein – locker zwar, aber sie lässt sich festzurren. Wie vorausschauend war es doch, dass das Bundesverfassungsgericht 1983 im «Volkszählungsurteil» ein Recht auf «informationelle Selbstbestimmung» in den Katalog unserer Grundrechte eingefügt hat!
[17]
Information is information, neither matter nor energy lautet eine berühmte These von Norbert Wiener, dem Begründer der Kybernetik. Man kann das Wort auch geschichtlich interpretieren: Information ist das Paradigma unserer Welt, so wie es in früheren Zeitaltern die Sache (Grund und Boden) war und danach die Energie.
Lothar Philipps ist Professor emeritus für Strafrecht, Rechtsinformatik und Rechtsphilosophie an der Ludwig Maximilians Universität München.
loth@jura.uni-muenchen.de
Dieser Text ist erstmals erschienen in:
Slovenian Law Review 2009 (Vol. VI), 77–82
Lothar Philipps ist Professor emeritus für Strafrecht, Rechtsinformatik und Rechtsphilosophie an der Ludwig Maximilians Universität München.
loth@jura.uni-muenchen.de
Dieser Text ist erstmals erschienen in:
Slovenian Law Review 2009 (Vol. VI), 77–82
- 1 Semantic Information and its Measures. In: Jehoshua Bar Hillel, Language and Information, Selected Essays on Their Theory and Application, pp. 298–310. London 1973 (Addison-Wesley). Der Aufsatz ist zuerst erschienen in den Transactions of the Tenth Conference on Cybernetics, New York 1952, pp. 33–48.
- 2 In Bar Hillels Darstellung wird erelectrocuted . Das wäre aber sehr unbritisch.
- 3 Omnis determinatio est negatio. Bar Hillel zitiert gern diesen Satz von Spinoza. Die tiefsinnige Art, wie Spinoza selber den Satz behandelt, in seinem Brief anJarig Jelles vom 2. Juni 1674, sollte Bar Hillels schlichte Interpretation nicht gering erscheinen lassen.
- 4 Fortan löse ich mich ein wenig von Bar Hillels (und Carnaps) eher technischem Sprachgebrauch.
- 5 Vgl. aus der längst unüberschaubaren Literatur Abraham A. Moles,Informationstheorie und ästhetische Wahrnehmung , Köln 1971 (Dumont Schauberg). Moles entwickelt die Definition S. 38 ff.
- 6 Cl. Roxin,Strafrecht Allgemeiner Teil , 4. Aufl. München 2006.
- 7 Vgl. L. Philipps, Recht und Information, in: Rechtstheorie, Ansätze zu einem kritischen Rechtsverständnis, hrsg. v. Arthur Kaufmann, Karlsruhe 1971 (C.F. Müller), S. 125–133. Was die Strukturierung von Information anlangt, so sei auf die japanische Rechtswissenschaft hingewiesen, welche, behutsam differenzierend und experimentierend, die Entwicklungen in der Gesellschaft abtastet und sich ihnen anverwandelt. Vgl. Keiichi Yamanaka,Strafrechtsdogmatik in der japanischen Risikogesellschaft , Baden-Baden 2008 (Nomos). Besonders hervorhebenswert scheint mir dabei die «epidemiologische» Kausalitätsbetrachtung zu sein, S. 68 ff.
- 8 Man folge den zahlreichen Verweisungen auf Carnap im Register von PoppersLogik der Forschung .