Beweiserhaltungssatz
Der Energieerhaltungssatz besagt, dass die Gesamtenergie in einem abgeschlossenen System über die Zeit konstant bleibt.
Wie der KI-Forscher und Denker Eliezer Yudkowsky erklärt, gibt es ein ähnliches Gesetz auch für unsere Denkprozesse: Das Gesetz der Beweiserhaltung.
„If you expect a strong probability of seeing weak evidence in one direction, it must be balanced by a weak expectation of seeing strong evidence in the other direction.” - Eliezer Yudkowsky in seinem Buch „Map and Territory”.
Wer rationales Denken praktiziert muss sich stets mit der Wahrheitswahrscheinlichkeit der eigenen Hypothesen beschäftigen. Die Grundlage für die Wahrscheinlichkeit, dass eine Hypothese wahr ist, bietet die aktuelle Beweissituation. Wenn viele Beweise die Hypothese bestätigen, ist sie wahrscheinlich korrekt und vice versa.[i]
Natürlich muss man aber erst einmal wissen, welche Beweise die eigene Hypothesen bestätigen und welche sie im Gegensatz wiederlegen. Das klingt offensichtlich, in der Realität wird genau dieses Grundgesetz aber oft verletzt.
Bestes Beispiel liefern die Hexenverfolgungen vergangener Zeiten: Wenn die vermeintliche Hexe ein hohes Maß an Ängstlichkeit aufweist, beweist das ihre Schuld – wenn sie unschuldig wäre, hätte sie keine Angst. Wenn die vermeintliche Hexe nicht ängstlich ist, beweist das ebenfalls ihre Schuld – schließlich versuchen Hexen immer, ihre Emotionen zu verbergen.
Nun kommen wir zur Kernaussage des Beweiserhaltungssatzes: Die Erwartung über die Wahrheitswahrscheinlichkeit, nachdem man neue Beweise erhalten hat, muss äquivalent zur aktuellen Wahrheitswahrscheinlichkeit sein.
Wer also glaubt, seine These sei mit einer Wahrscheinlichkeit von 93% richtig, muss Folgendes erwarten: Mit einer hohen Wahrscheinlichkeit wird er schwache Beweise dafür finden, dass seine These richtig ist. Mit einer geringen Wahrscheinlichkeit wird er starke Beweise dafür finden, dass seine These falsch ist.
Die Logik dahinter ist einfach. Seine Wahrheitswahrscheinlichkeit ist schon jetzt recht hoch. Er hat also schon eine Menge an positiver Evidenz für seine These. Ein weiteres Beweisstück, trägt entsprechend wenig zur Erhöhung der Wahrheitswahrscheinlichkeit bei. Findet er hingegen Beweise, die konträr zu seiner These sind, wirkt sich das durchaus stark auf die Wahrheitswahrscheinlichkeit aus.
Das kontraintuitive darin: Je sicherer wir uns sind, desto größer ist der Effekt eines unwahrscheinlichen konträren Beweises.[ii]
Zum Weiterlesen:
Yudkowsky, Eliezer: Map and Territory. Rationality: From AI to Zombies. Berkeley: 2018.
[i] Das ist natürlich eine sehr vereinfachte Formulierung, auf welche beispielsweise Nassim Taleb mit scharfer Kritik antworten würde.
[ii] Diese Aussage sollte das Gemüt von Nassim Taleb dafür wieder beruhigen.