Selektive Wahrnehmung und der Bestätigungsfehler

Heute möchte ich mal nicht von Philosophie erzählen, sondern im fremden Revier wildern und über Psychologie sprechen, genauer gesagt über selektive Wahrnehmung und den Bestätigungsfehler. Ich hoffe, ich darf das.

Beides sind jedenfalls psychologische Erkenntnisse, die unglaublich nützlich sein können, um sowohl in der Erkenntnis- und Wissenschaftstheorie als auch in der Ethik nicht in bestimmte Fallen zu tappen. Ungefähr so nützlich wie ein Schweizer Taschenmesser dabeizuhaben, wenn du mal nicht gerade den Wein für 1,99 mit Schraubverschluss gekauft hast.

Selektive Wahrnehmung

 

Fangen wir mit der selektiven Wahrnehmung an: Jede von uns kennt das: Wir unterhalten mit Freunden über ein Thema, Beispielsweise über den Tractatus Logico-philosophicus und kurz darauf zeigt uns unser Handy Werbung dafür an. Okay, das ist zu weit hergeholt, das sehe ich ein. Aber ich wette, wenn ich jetzt von diesen super-bequemen Hosen erzähle, die total elastisch und widerstandsfähig sein und die sich super-duper reinigen lassen, dann bekommt ihr die angezeigt, sobald ihr das nächste Mal auf Instagram oder Facebook geht.

Einzig logische Schlussfolgerung: Dein Handy belauscht dich! Aber ist das die einzig logische Schlussfolgerung? Ich habe zwei verschiedene Sprachcomputer ausprobiert. Es scheint, als wäre die Spracherkennung gar nicht so gut, dass sie „super-bequeme Hosen, die total elastisch und widerstandsfähig sein und die sich super-duper reinigen lassen“ versteht.

Aber wieso bekomme ich die Werbung dann plötzlich angezeigt? Wenn wir nach Aristoteles uns der Philosophie des Mittelalters zuwenden, muss ich euch unbedingt von Ockhams Rasiermesser erzählen. Der gute alte Wilhelm von Ockham war nicht der Gründer von Gilette, sondern ein Philosoph, der für die Erkenntnistheorie folgenden Leitsatz aufgestellt hat: „Von mehreren hinreichenden möglichen Erklärungen für ein und denselben Sachverhalt ist die einfachste Theorie allen anderen vorzuziehen“. Warum das so ist, klären wir ein anderes mal. Aber gehen wir mal für heute davon aus, dass das stimmt. Was hieße das für uns?

Nun, was, wenn ich euch sage, dass ihr die Werbung überhaupt nicht so plötzlich auftaucht wie Jan Böhmermanns SPD-Mitgliedschaft. Sondern, dass sie schon immer da war. Dass sich in Wirklichkeit etwas anderes plötzlich geändert hat, nämlich eure Wahrnehmung. Das ist es, was man Selektive Wahrnehmung nennt.

Aufgrund der Fülle der Sinneseindrücke, die in jedem Moment auf uns einströmen, ist unser Gehirn gezwungen, einen Großteil davon auszublenden. Sonst kämen wir überhaupt nicht mehr klar. Unsere Aufmerksamkeit wird stattdessen auf die Dinge gelenkt, die im Augenblick für uns relevant sind. Im Straßenverkehr achtest du zum Beispiel auf die Straßenführung, Schilder, Ampeln und wie sich die Autos, Fahrräder und Fußgängerinnen rund um dich herum verhalten. Aber du blendest unzählige andere Faktoren aus. In der Regel wirst du wahrscheinlich nicht auf die Farbe von Autos oder Häuser achten, welche Markenkleidung die Menschen auf der Straße tragen, Wolkenkonstellationen, Streetart, Gesunder Salat und Vogelarten sind dir höchstwahrscheinlich auch egal. Es geht schließlich darum, dass du sicher an dein Ziel gelangst. Dafür blendet dein Gehirn alles aus, was im Augenblick nicht relevant ist.

Bei einem berühmt gewordenen Experiment von Daniel Simons und Christopher Chabris müssen die Probanden ein Video ansehen, in dem sich drei Menschen mit schwarzen T-Shirts und drei mit weißen Bälle zuwerfen. Ihre Aufgabe besteht darin, zu zählen, wie viele Pässe gemacht wurden. Doch der eigentliche Witz ist, dass mitten im Video ein Mensch in einem Gorillakostüm durchs Bild läuft. Die meisten Probanden sehen den Gorilla nicht. Und zwar nicht weil sie unter Affenblindheit aufgrund von zu viel Planet-der-Affen-Binge-Watching leiden, sondern weil ihre Aufmerksamkeit nur auf den Bällen und T-Shirts liegt.

 

Und diesen Mechanismus wendet dein Gehirn eben rund um die Uhr an.  Wenn du dich im Internet bewegst, wird Werbung in den allermeisten Fällen als nicht relevant vom Gehirn ausgeblendet. Und wer könnte es ihm übel nehmen? Schließlich ist das Netz mit Werbung überfüllt und du bist darauf konzentriert, zischen all den blinkenden Bildern und flackernden Videos die besser als das Bernsteinzimmer versteckte Information zu bekommen, wegen der du eine bestimmte Webseite besucht oder eine bestimmte App geöffnet hast. Aber wenn dir dann eine spezielle Werbung zum Beispiel von einem depperten Blogger in dein Aufmerksamkeitsfeld geschoben wird, dann fängt dein Gehirn an, diese für dich zu selektieren, sobald du auf sie stößt. Sie taucht dann plötzlich überall für dich auf. Übrigens wissen Werbetreibende und Online-Medien sehr gut darum und legen alles daran, deine Aufmerksamkeit zu erlangen.

Das soll allerdings nicht heißen, dass euer Smartphone euch nicht überwacht, sondern nur, dass nicht jedes Phänomen mit dieser Überwachung erklärbar ist.

Die Gefahren von selektiver Wahrnehmung

Selektive Wahrnehmung ist oft eine harmlose Angelegenheit. Wenn du mal Krücken benutzen musstest, wird dir auffallen, wie viele Menschen „plötzlich“ mit Krücken rumlaufen. Ein anderes werdendes Elternteil sagte mal zu mir: Krass, dass auf einmal so viele Frauen schwanger sind. Aber wir können anhand von Geburtsstatistiken sehr gut nachvollziehen, dass ich Deutschland im 21. Jahrhundert nicht spontan viele Menschen mit Uteri schwanger wurde. Eher im Gegenteil.

Doch selektive Wahrnehmung kann auch problematisch sein. Zum Beispiel, wenn Menschen Angst vor der Islamisierung des Abendlandes haben, obwohl der Anteil von Menschen muslimischen Glaubens bei etwa 15% an der Gesamtbevölkerung liegt. Die 85% Atheisten, Christen und co. nehmen sie einfach nicht wahr. Auch kann es leicht passieren, dass Menschen wie ich (männlich, weiß, heterosexuell), also die vom Feuilleton tapfer betrauerten alten weißen Männer, nicht mit bekommen, wo andere Menschen, die nicht dieser privilegierten Gruppe angehören, diskriminiert werden. Da diese Barrieren für mich nicht relevant sind, blende ich sie einfach aus.

Deutsche schätzen Zahl der Muslime in Deutschland auf 17 Millionen

Ein weiteres Beispiel ist jemand, der in einer Diskussion zum Klimawandel sagt, „ach, warme Sommer hat es schon immer gegeben.“ Wobei, das geht schon eher in die Richtung des anderen Phänomens, das ich hier besprechen möchte. Gehen wir dafür noch einmal einen Schritt zurück.

Der Bestätigungsfehler

Diese neuen E-Scooter sind die Pest, oder?! Mich nervt tierisch, dass die Dinger immer und überall im Weg stehen. Rollstuhlfahrende, Menschen, die Kinderwagen schieben und Blinde müssen doch dauernd darüber fallen. Aber was, wenn ich euch erzähle, dass ich in der letzten Woche auf meinen Wegen durch die Stadt mal eine Strichliste gemacht habe: Was steht denn so auf den Bürgersteigen und Gehwegen?

Dabei kam heraus, dass Roller nur für knapp 29 % aller Hindernisse auf Trottoirs verantwortlich sind. 71% der Hindernisse bestanden aus Mülltonnen, Sperrmüll, Motorräder, Vespas, Fahrräder und Autos. Die E-Scooter waren zwar immer noch die größte Gruppe in meiner kleinen Stichprobe. Aber die Gruppe der Motorräder, Vespas und Fahrräder schenkte dem mit 24 % nicht viel. Was mich persönlich wunderte war, dass der Prozentsatz der unangenehm parkenden Autos mit 16% vergleichsweise gering war. Denn in meiner Wahrnehmung als Radfahrer stehen die IMMER im Weg!

Wie kommt es, dass wir das Gefühl haben, dass E-Scooter überall rumstehen, während wir knapp 3/4 der anderen Hindernisse ignorieren? Nun, hier spielt sicher auch wieder selektive Wahrnehmung eine Rolle. Aber da es im Augenblick zum guten Ton gehört, E-Scooter scheiße zu finden, solange man nicht gerade selbst auf einen steht, kommt wohl noch der sogenannte Bestätigungsfehler hinzu.

Der Bestätigungsfehler oder Confirmation Bias ist unsere Neigung, Informationen tendenziell eher so auszuwählen oder zu interpretieren, dass sie die These bestätigen, der wir anhängen. Habe ich mir mein Urteil über E-Scooter gebildet, dann wird jeder Roller, der im Weg steht, meine These bestätigen. Mülltonnen oder Autos umlaufe ich hingegen so galant als wären sie die Gegenspieler in einem Fußballspiel. Dieser Fehler kann uns beim Sammeln von Informationen, beim Erinnern und beim Interpretieren von ihnen unterlaufen. Und der Effekt ist umso stärker, je stärker ein Thema emotional aufgeladen ist.

Philip E. Tetlock machte zum Beispiel eine Langzeitstudie über zwei Jahrzehnte mit 284 Probanden, allesamt politische und wirtschaftliche Berater. Tetlock bat sie immer wieder die Wahrscheinlichkeit vorherzusagen, dass verschiedene Situationen eintreten würden oder nicht eintreten würden, er untersuchte Situationen aus dem Fachgebieten der Testpersonen genauso wie solche, zu denen sie keine Experten waren. Insgesamt sammelte er 82.361 Prognosen. Tetlock stellte fest, dass es „Füchse“ gab, wie er sie nannte: Menschen, die immer verschiedene Hypothesen in Betracht zogen. Und es gab „Igel“: Menschen die an ihrer Hypothese tendenziell festhielten. Bei letzteren konnte Tetlock feststellen, dass ihre Vorhersagen schlechter waren, als die der Füchse. Der Grund dafür war der Confirmation Bias. Die Igel werteten Indizien für ihre Hypothese höher als solche, die dagegen sprachen.

Das ist ein Muster, das uns in öffentlichen ethischen Debatten regelmäßig begegnet. So wird zum Beispiel jede Straftat durch eingewanderte Menschen und deren Nachfahren viel breiter ausgewalzt, als es mit Straftaten von Menschen ohne Migrationshintergrund gemacht wird. Obwohl statistisch betrachtet, letztere den größeren Anteil an der Gesamtheit aller Straftaten ausmachen. Doch jede Straftat durch einen AUSLÄNDER(!!!) wird als Bestätigung angesehen, dass kriminelle Einwanderer ein großes gesellschaftliches Problem seien.

Der Bestätigungsfehler in der Philosophie

Aber auch in der Philosophie kann der Bestätigungsfehler problematisch sein. Beispielsweise ist ein beliebtes Instrument in philosophischen Diskussionen das Gedankenexperiment. Ich stelle mir eine Situation vor: Sprachforscher im Gespräch mit einem indigenen Volk, Gehirne in einem Tank oder eine Verfassungsversammlung unter dem Schleier des Nichtwissens. Dann versuche ich, Schlüsse daraus zu ziehen, wie sich die Menschen beziehungsweise Gehirne in dieser Situation verhalten. Das birgt natürlich die immense Gefahr, dass ich nur Argumente finde, die meine These bestätigen. Okay, vielleicht handelt es sich dabei eher um falsche Schlussfolgerungen als um Bestätigungsfehler.

Aber auch – und das ist der entscheidende Punkt – wenn ich meine philosophischen Thesen empirisch absichere, kann mir der Confirmation Bias unterlaufen. Beispielsweise vertritt der Philosoph Philipp Hübl die These, dass konservative Menschen sich neben anderen Markern unter anderem leichter ekeln als progressive Menschen. Daher verfangen bei Ihnen eher Botschaften rechter Demagogen, die Menschen anderer Kulturen, anderer Religionen oder politischen Ansichten als dreckig, unrein und widerlich darstellen.

Der Bestätigungsfehler birgt nun die Gefahr, dass ich, wann immer ich einen Menschen, der oder die sich leicht ekelt, treffe, ihn oder sie direkt ins rechte Lager stecke. Beziehungsweise dass ich jeden Konservativen, der eine hohe Neigung zu Ekel hat, als Bestätigung meiner These ansehe, während ich alle alle Menschen, die nicht in dieses Muster passen, keine Beachtung schenke. Ich will übrigens nicht sagen, dass Hübls These, die ich hier gewohnt verkürzt dargestellt habe, falsch ist. Ich will nach wie vor nur auf die Gefahren von selektiver Wahrnehmung und Confirmation Bias aufmerksam machen.

Mittel gegen Selektive Wahrnehmung und Bestätigungsfehler

Doch, was können wir denn dagegen tun, uns von unseren kleinen fehlbaren menschlichen Hirnen austricksen zu lassen?

Öfter mal eine Strichliste führen, ist ein Rat, den man nicht oft genug wiederholen kann. Eigentlich sollten empirische Sozialforschung und Statistik Schulfächer sein. Denn unsere Gesellschaft ist chronisch abhängig von Daten und Statistiken, aber eine Ahnung davon, wie diese richtig zu interpretieren sind, haben die wenigsten Menschen.

Außerdem lege ich euch ans Herz, euch mit Karl Popper und dem Falsifikationsprinzip zu beschäftigen. Irgendwann muss ich euch mal vom Neopositivismus, kritischen Rationalismus und dann auch noch vom Positivismusstreit erzählen. Aber heute mal wieder nur so viel: empirische Wissenschaften können nicht beweisen. Krass oder? Das scheint das exakte Gegenteil  von dem zu sein, was man gemeinhin der Wissenschaft unterstellt. Aber es ist so: Die Wissenschaft stellt Theorien auf und sammelt dann Daten, um diese Theorien zu stützen. Aber wenn die Daten ergeben, dass eine Theorie nicht stimmt, dann muss man sie zumindest modifizieren. Es gibt Extremfälle, bei denen ein Datum ausreicht, um eine Theorie zum Fall zu bringen. Das Bespiel, das alle Soziologiestudierenden im ersten Semester lernen, ist: Alle Schwäne sind weiß. Dann schipperte James Cook nach Australien und entdeckte den Trauerschwan. Ich bin überzeugt, er war das persönlich. Damit war die These widerlegt. Daraus ergibt sich ein systematisches System. Denn es ist ja prinzipiell immer möglich, dass ich zukünftig noch ein Datum finde, das meine Theorie widerlegt.

Wenn die empirische Wissenschaft aber nicht beweisen kann, dann das ist ein krasses Problem, denn wir landen damit wieder mitten im erkenntnistheoretischen Skeptizismus gegen den Platon sich so sehr wehrte. Was mache ich, wenn es kein sicheres Wissen gibt? Wenn alle meine Erkenntnisse widerlegt werden können? Ich mache es wie Popper und erhebe genau das zum Prinzip der Wissenschaft. Das Falsifikationsprinzip besagt: Eine Theorie gilt genau solange als wahr, bis sie widerlegt wurde. Und das ist unser stärkstes Mittel gegen selektive Wahrnehmung und Bestätigungsfehler.

Moderne Wissenschaft versucht nicht, Theorien zu beweisen. Sie setzt alles daran, sie zu widerlegen. Und je öfter das scheitert, desto bewährter ist eine Theorie, desto gewisser ist sie. Das ist ganz nebenbei auch der Grund, warum es überhaupt keinen Sinn macht, wenn Klimaskeptiker behaupten, der menschengemachte Klimawandel sei nicht bewiesen. Das ist ein sinnloser Satz. Denn man kann den Klimawandel nicht beweisen, man könnte ihn nur widerlegen und alle Versuche, das zu tun, sind bislang so dermaßen bescheiden, dass die Theorie vom menschengemachten Klimawandel sich ziemlich gut bewährt hat.

So, das war mein kleiner Ausflug in Psychologie und empirische Sozialforschung. Ich hoffe, er hat euch gefallen.

Kognitive Verzerrungen

Casper David Friedrich - Das Eismeer
Caspar David Friedrich: Das Eismeer. Lizenz: Gemeinfrei. via Wikimdedia Commons

Heute werden (vielleicht?) wieder tausende „besorgte Bürger“ und dem Label PEGIDA durch Dresden marschieren, um damit gegen die „Islamisierung des Abendlandes“ zu demonstrieren. Obwohl in Sachsen nur 0,1 Prozent der Bevölkerung dem muslimischen Glauben anhängen. Das sind in absoluten Zahlen: 4000 Menschen.

Als vor Weihnachten 20.000 Vollpfosten, pardon, „besorgte Bürger“ gegen die Islamisierung demonstrierten, hätten also jeweils vier PEGIphile ein Stuhlbein des Stuhls tragen können, auf dem ein Moslem sitzt, während ein fünfter ihn liebevoll mit Lebkuchen füttert (noch so einer schrecklichen Sache aus dem „Morgenland“). Und doch glaubt sogar eine „Undercover Agent“ von RTL, dass auf den Straßen „überall Türken rumlaufen“.

Doch woher kommt diese dramatische Fehleinschätzung der PEGIrasten?

Hier liegt ofenbar eine kognitive Verzerrung vor. Eine koginitve Verzerrung, oder cognitive bias ist eine systematische Fehlleistung unseres Gehirns, bei der Informationen auf bestimmte und immer gleiche Weise falsch interpretiert werden, sodass wir immer zu einem falschen Ergebnis kommen. Dieser Prozess läuft komplett unterbewusst ab. Wir können ihn aber reflektieren und wenn wir unsere Aufmerksamkeit darauf richten, den Fehler entdecken.

Ich weiß, das klingt alles ziemlich vage und kryptisch. Ein Klassiker, den alle Studierende bei der Einfühung in die empirische Sozialforschung kennenlernen, ist die Scheinkorrelation. Zwei Ereignisse lassen sich beobachten und die beobachtende Person glaubt daher an einen Kausalzusammenhang, also dass das eine stattfand weil das andere passierte. Die Erstsemesterinnen aus der Soziologie hören dann immer die Geschichte von den Störchen: Geburtenraten sind in der Regel in jenen Gegenden höher, in denen es auch mehr Störche gibt. Ganz klar: Störche bringen die Kinder! In Wirklichkeit geht beides eher auf ländliche Regionen zurück, in denen sowohl mehr Kinder geboren werden als in Städten als auch mehr Störche leben.

Ich glaube aber, hier liegt eine andere Verzerrung vor, wenngleich die Scheinkorrelation möglicherweise mit hineinspielt. Ich glaube, wir beobachten bei PEGIDA einen Bestätigungsfehler. Ein Bestätigungsfehler ist die Neigung, denen empirischen Daten mehr Relevanz zuzuschreiben, die die eigene Theorie bestätigen. Klassiker sind hier der Freitag der 13. Wenn uns an einem solchen Freitag ein Unglück geschieht, dann nehmen wir das als Beweis dafür, dass dies ein Unglückstag ist. Hingegen beziehen wir all die 13. Freitage nicht in unsere Beobachtung mit ein, die ereignislos verlaufen und somit unsere These widerlegen würden.

Ein anderes Beispiel hierfür sind Schlafprobleme bei Vollmond. Menschen müssen schlafen, aber können es manchmal nicht. Wer ist schuld? Der Mond. Gut, wir können zwar in den verschiedensten Nächten nicht schlafen und finden dafür dann andere Erklärungen. Aber jede schlaflose Nacht, in der der Vollmond am Himmel steht, werten wir als Beweis dafür, dass unsere These, dass wir bei Vollmond nicht schlafen können, stimmt.

So wird von den besorgten Rechtsauslegern jedes Indiz für ihre „Islamisierungsthese“ – beispielsweise eine Moschee – dramatisch überbewertet, während all jene Aspekte, die gegen ihre Theorie sprechen – Beispielsweise die Realität – ignoriert werden.

Die eigentlich spannende Frage ist: Woher beziehen die PEGIDAnten ihre verzerrten Daten, die ihre These stützen, dass wir von radikalen Islamisten überrannt werden, obwohl die Tatsachen eine andere Sprache sprechen. Nun, vielleicht kommen diese Daten hierher:

Verfassungsschützer über Islamismus: „Wir müssen mit Einzeltätern rechnen, die Schrecklichstes tun“

Spiegel Online

Islamismus: Hilferufe bei der Beratungsstelle Radikalisierung nehmen zu

Spiegel Online

Wir müssen uns wappnen

Der Spiegel

Bruder, Kämpfer, Dschihadist

Der Spiegel

Dschihadisten soll Personalausweis entzogen werden

Süddeutsche Zeitung

Ein Tarnverein für modernen Islamismus

Süddeutsche Zeitung

Salafist mit Stellenzusage für die Polizei

Süddeutsche Zeitung

„Ich kann die Furcht vor der Islamisierung verstehen“

FAZ

Geißler nennt Furcht vor Islamismus „berechtigt“

Die Welt

Salafist Lau verweigert Aussage im Stuttgarter Terrorprozess

Die Welt

Polizei warnt vor den „tickenden Zeitbomben“

Die Welt

„Deutschland im Fadenkreuz des Dschihad-Terrors“

Die Welt

Internet soll im Kampf gegen Islamismus Beitrag leisten

Die Welt

Nachtsichtgeräte bei mutmaßlichen IS-Anhängern beschlagnahmt

Die Welt

Islamforscherin: Moscheen müssen mehr gegen Salafisten tun

Frankfurter Rundschau

Unsere Dschihadisten

Frankfurter Rundschau

Kampf gegen Islamismus: Landtag sieht Aktionstag als Signal

Frankfurter Rundschau

Streit nach Koranverteilaktion

Frankfurter Rundschau

Angst vor den Gotteskriegern

Frankfurter Rundschau

Landtag beschäftigt sich mit Salafisten

Frankfurter Rundschau

Terror-Gefahr in Deutschland groß wie lange nicht!

BILD

Von wegen 70
Warnung vor 240 radikalen Salafisten

BILD

So lockt ISIS junge Mädchen nach Syrien

BILD

Warum sympathisieren so viele Muslime mit ISIS?

BILD

So groß ist die Gefahr in Deutschland
Der große Terror-Check

BILD

Vergesst bitte nicht: Dies ist nur ein verzerrter, nichtrepräsentativer Ausschnitt der gesamten Berichterstattung. Gerade in den letzten Wochen gab es auch viele Berichte über die überzogenen Ängste der PEGIDAstien.
Dennoch lautet meine Arbeitshypothese, dass Presse und Politik radikalen Islamismus in Deutschland, unverhältnismäßig oft thematisieren, wenn man bedenkt, dass es in Deutschland faktisch keinen islamistischen Terror gibt im Unterschied zu anderen Formen von radikalen Straftaten.
Aber mit Angst lassen sich eben sowohl Klicks generieren als auch Prozente für die nächste Umfrage sammeln…

Verschwörungstheorien widerlegen

Jemand gelangte mit der Suchanfrage „Logische Fehlschlüsse Verschwörungstheorien“ auf mein Blog. Das ist ein spannendes Thema, dem ich mich hier widmen möchte. Doch vorweg muss ich die Suchende enttäuschen, denn die Logik kann uns hier nur bedingt weiterhelfen.

Der Mond
Der Vollmond, fotografiert in Hamois (Belgien). Urheber: Luc Viatour. Lizenz: CC BY-SA 3.0.

Das liegt in ihrer Natur: Die Logik ist die Lehre vom formal richtigen Schließen. Dass heißt, sie untersucht Schlussfolgerungen nur anhand ihrer sprachlichen Form, um zu prüfen, ob in dieser Fehler stecken. Der Inhalt der Äußerung interessiert die Logik dabei überhaupt nicht, sie überlässt es der Empirie, der Wissenschaft, zu prüfen, ob dieser Inhalt wahr ist.

Daraus folgt natürlich, dass ich fantastische Welten ohne einen einzigen logischen Fehler erschaffen kann, die dennoch nicht wahr sind. Ein Beispiel: Mit dem klassischen Syllogismus kann ich beweisen, dass es keine Klimakatastrophe gibt…

P1 Ein Klimawandel ist ein ganz natürlicher, ungefährlicher Vorgang.
P2 Wir erleben gerade einen Klimawandel.

C Wir erleben gerade einen ganz natürlichen ungefährlichen Vorgang.

Mit anderen Worten: Diese Wissenschaftler regen sich ohne Grund auf. Es gibt nichts zu befürchten, tanken Sie bitte voll!

Ich kann Verschwörungstheorien aufbauen, die in sich komplett schlüssig sind, daher ist hier die Logik als Waffe oftmals stumpf. Natürlich bleibt der Satz vom Widerspruch wie immer unser wichtigstes Werkzeug. Denn auch in einer Verschwörungstheorie kann etwas nicht zugleich der Fall sein und nicht der Fall sein. Beispielsweise liegt der Widerspruch offen wie der Quellcode von Linux, wenn Nazis einerseits Arier als Über- und Juden als Untermenschen stilisieren, andererseits aber von einer jüdischen Weltverschwörung sprechen, denn wie soll diese denn gegen die vermeintlichen Übermenschen möglich sein?

Aber, auch wenn solche Dummheiten viele Anhänger finden können, sind die spannenden Verschwörungstheorien eben jene, die logisch schlüssig sind. Und bei diesen begehen Kritiker oft den Fehler, sie logisch widerlegen zu wollen, doch für jeden abgeschlagenen Kopf der Hydra wachsen ihr zwei nach. Nein, wollen wir sie zu Fall bringen, dann müssen wir ihr die Beine wegschlagen. Statt zu prüfen, ob in einer Verschwörungstheorie die richtigen Schlüsse gezogen werden, ist viel erfolgsversprechender, zu prüfen, ob von den richtigen Prämissen ausgegangen wird. Das wiederum ist nicht mehr Sache der Logik, sondern jene von Erkenntnis- und Wissenschaftstheorie.

Über Gewissheit

Die Wissenschaftstheorie gibt uns eine ganze Reihe von Werkzeugen an dir Hand mit denen wir dem Verschwörungstheoretiker begegnen können. Und um mit meinem Muster zu brechen und meine Texte nicht zu vorhersehbar zu machen, fange ich mal mit Wittgenstein an, statt mit ihm zu enden. Die für uns fruchtbaren Gedanken Wittgensteins finden sich in „Über Gewissheit„. Dort setzt sich Wittgenstein mit erkenntnistheoretischem Skeptizismus auseinander. Das ist kein Skeptizismus im Sinne der GWUP, sondern in gewissem Sinne die Verschwörungstheorie der Philosophie, nämlich die philosophische Lehre, dass Erkenntnis prinzipiell unmöglich ist. Dass wir uns also nie sicher sein können, ob die Welt wirklich existiert oder alles nur in deinem Kopf existiert, Thomas D.

Wittgensteins Antwort darauf lautet, salopp gesprochen: wenn du an allem zweifelst, dann musst du auch dein Maul halten. Denn warum zweifelst du am Rest, wenn du nicht an der Bedeutung deiner Worte zweifelst? Sätze stehen nie so isoliert da wie Will Smith in I am Legend, statt dessen ist der Kontext wichtig. Sie erhalten erst in einem komplexen Geflecht mit anderen Sätzen ihre Bedeutung.

Zurück zu unserem Problem: Wenn der Verschwörungstheoretiker einen Aspekt der Tagesschau-Wikipedia-Realität leugnet, dann liegt auch die Beweislast bei ihm. Er muss zeigen, wie seine Theorie sich in diese Realität einfügt. Und dabei ist es wichtig, dass es seine Theorie ist, die sich einfügen muss. Er kann sich nicht lutherisch hinstellen und nicht anders können. Schon Paul [Carl; korrigiert am 11.10.14] Sagan wusste zu sagen: „Außergewöhnliche Behauptungen bedürfen außergewöhnlicher Beweise„. Oder in den Worten Spidermans: „Aus großer Kraft entspringt große Verantwortung“. Es reicht nicht, zu sagen: „Du kannst eine außergewöhnliche Sichtung am Loch Ness nicht erklären, also gibt es Nessi!“ Die Fakten sprechen zunächst einmal gegen die Existenz eines Monsters im Loch Ness, wenn du also beweisen willst, dass es doch existiert, reicht nicht ein einziges außergewöhnliches Phänomen. Nein, du musst alle meine Argumente entkräften, denn dein Satz ist es, der nicht ins Sprachspiel passt, nicht meiner.

Zahlen und Fakten statt Anekdoten

Oft verläuft das Plädoyer für eine Verschwörungstheorie wie im Falle der Homöopathie und als Argument dafür wird angeführt: „Also mir hat’s geholfen.“ Das aber ist eine Abduktion. Aus dem Einzelfall einer wie auch immer zustande gekommenen Heilung wird auf die Allaussage, dass Homöopathische Mittel wirken, geschlossen. Das ist kein Fehlschluss, sondern eine Schlussform, die wir im Alltag ständig anwenden und die uns auch meistens gute Dienste leistet. Aber es ist dennoch eine sehr unsichere Schlussform. In einem Experiment hat man mal Wölfen den Geschmack an Schafsfleisch verdorben, indem man diesem ein starkes Abführmittel beifügte. Aus dem einmaligen Magenproblemen schlossen die Tiere falsch, dass Schafsfleisch immer unverträglich ist (Leider finde ich den Lin nicht mehr, weswegen ich das hier mal als Anekdote stehen lasse…). o.O

Ein Einzelfall ist letztlich nichts anderes als eine Anekdote, was uns in einer Diskussion mit einem Verschwörungstheoretiker aber weiterbringt, sind Zahlen und Fakten. Im Falle des Klimawandels wären das zum Beispiel die Menge an Kohlendioxid, die die Menschheit jährlich produziert, der genaue chemische Prozess, wie Kohlendioxid das Klima beeinflusst und das Ausmaß des aktuellen Klimawandels verglichen mit solchen aus der Vergangenheit.

Das besten Mittel, um einen Fakt von einer Anekdote zu unterscheiden, kennt jede, die schon einmal eine Grundlagenvorlesung in empirischer Sozialforschung besucht hat: Reliabilität, Validität und Objektivität. Und weil dieses YouTube-Video das viel besser erklärt, als ich es je könnte, gebe ich das Wort an Stephan Georg:

Ockhams Rasiermesser

Ockhams Rasiermesser wird oft auch englisch Ockham’s Razor oder Occam’s Razor genannt, da es auf den englischen Philosophen William of Ockham zurückgeht, der, da er bereits 1288 zur Welt kam vielleicht auch of Occam hieß. Wer weiß das heute schon so genau. Das Prinzip ist ganz einfach und besagt, dass wir, wenn wir zwei oder mehr Erklärungen für ein Phänomen haben, diejenige bevorzugen sollten, die mit weniger Hypothesen auskommt.

Angenommen

P1 Omas gutes Porzellan ist zerbrochen und den Scherben finden sich Kakaoreste.

Und du hast jetzt die Wahl zwischen

P2 Dein Kind wollte sich einen Kakao machen

C Dein Kind hat die Tasse zerbrochen.

oder

P2 Möglicherweise ist dein Nachbar ein Mafiaboss
P3 Daher wurden Ninjas ausgesandt um ihn zu ermorden
P4 Die Ninjas haben sich in der Wohnung geirrt
P5 Die Ninjas sind in deine Wohnung eingedrungen, ohne Spuren zu hinterlassen
P6 Das Kakaopulver ist eigentlich ein seltenes Gift
P7 Die Ninjas wurden irgendwie gestört
P8 Die Ninjas haben überstürzt den Rückzug angetreten

C  Ninjas haben die Tasse zerbrochen

Welche Erklärung ist dann plausibler? Wichtig ist: Erklärung Nummer Zwei ist nicht ausgeschlossen. Es gibt durchaus eine gewisse Wahrscheinlichkeit, dass Ninjas das gute Porzellan deiner Oma zerbrochen haben, aber sie ist eben seeeeeeeeeehr klein. Doch warum ist das so? Was macht die einfachere Theorie zur besseren? Nun darüber haben die Philosophen lange und oft diskutiert. Die Antwort, die ich hier geben möchte, führt uns zur letzten und stärksten Waffe gegen Verschwörungstheorien. Quasi zum Herrscherring der Wissenschaftstheorie. Für jede unserer Prämissen muss nämlich gelten: dass sie zumindest prinzipiell auch widerlegbar ist. [Edit: Und mit der Zahl der Prämissen steigt die Wahrscheinlichkeit, dass eine davon dem Falsifikationsvorbehalt nicht genügt]

Der Falsifikationsvorbehalt

David Hume hat uns in seinem „A Treatise of Human Nature“ das Induktionsproblem hinterlassen: Aus der Tatsache, dass die Sonne bis jetzt jeden Morgen aufgegangen ist, kann ich nicht schließen, dass sie bis in alle Ewigkeit jeden Morgen aufgeht. Denn, wenn sie morgen nicht aufgehen sollte, kann ich meinen Schluss in die Tonne kloppen. Andererseits ist aber die Induktion (das ist der Schluss von einer Reihe von Einzelfällen auf eine allgemeine Regel) unser einziges Mittel in der empirischen Wissenschaft, um wirklich neues Wissen zu gewinnen. Wie kann ich denn dann sicher sein, dass ich mich nicht geirrt habe? Die Antwort lautet einfach: gar nicht, aber genau das kann ich zum Prinzip erheben. Um die Induktion sicherer zu machen, muss ich zunächst alle oben angeführten Prinzipien befolgen:

1. Meine Induktion muss sich ins Geflecht bestehenden Wissens einfügen
2. Meine Induktion muss objektiv sein
3. Meine Induktion muss valide sein
4. Meine Induktion muss reliabel sein
5. Ich muss die Komplexität möglichst weit reduzieren

Wenn ich diese Schritte durchgeführt habe, dann habe ich die Wahrscheinlichkeit erhöht, dass mein Schluss richtig ist. Aber er könnte ebenso falsch sein… Daher gilt für ihn der Falsifikationsvorbehalt. Karl Popper hat uns diesen vererbt, indem er das Prinzip einführte, dass eine Theorie nur so lange als wahr gilt, bis ihr Gegenteil bewiesen wurde. Das Beispiel mit den schwarzen Schwänen kennt wahrscheinlich jeder: Lange Zeit war die Aussage wahr: Alle Schwäne sind weiß. Dann schipperte James Cook nach Australien und entdeckt dort den Trauerschwan und – Booooom! – Unsere Wahrheit zerfiel zu Staub wie ein Vampir im Sonnenlicht (nein, die glitzern nicht!). Ein Schwarzer Schwan reicht, um den Satz „Alle Schwäne sind weiß“ zu falsifizieren.

Doch wie können wir Poppers geheime Superkraft gegen unsere Verschwörungstheoretiker zu Felde führen? Ganz einfach: Wie ich schon sagte, wir erheben sie zum Prinzip. Denn wahr kann nur sein, was auch falsch sein kann. Eine Theorie muss widerlegbar sein, sonst ist sie nur noch eine Geschichte ohne jeglichen Wahrheitsanspruch. Brian kann nicht der Messias sein…

Klassisches Beispiel für den Nicht-Theorie-Status ist die Freudsche Psychoanalyse. Eine psychoanalytische Hypothese kann ich prinzipiell nicht widerlegen, denn wann immer ich ein Argument gegen sie anführe, wird mir der Analytiker entgegenhalten, dass ich das jetzt nur sage, weil mein Unterbewusstsein mir einflüstert, dass ich das jetzt sagen soll. Aber das heißt nichts anderes als:

Vielen Dank fürs Mitspielen aber Sie haben sich eben im großen Wahrheitsquiz disqualifiziert, denn wenn Ihre Theorie nicht falsifizierbar ist, dann kann sie auch nicht wahr sein.

In der Verschwörungstheorie kommt das Argument oft in der Gestalt daher, dass ich jedesmal, wenn ich ein Argument gegen die Verschwörung vorbringe, ebenjenes angeblich nur sage, weil ich Teil der Verschwörung bin. Aber das ist eben kein gültiges Argument, es besitzt keinen Wahrheitswert sondern ist rein sophistisch. Doch das ist eine andere Geschichte, der ich mich schon einmal hier gewidmet habe…

Wenn ihr meine Ausführungen mal in der Praxis erleben wollt, empfehle ich euch Hoaxilla. Alexander und Alexa (die Namen zeigen eindeutig, dass sie Teil der Verschwörung sind!!!11einself) haben schon so manche Verschwörungstheorie unter die Lupe genommen.

Literatur:

Ludwig Wittgenstein: Über Gewissheit (bei Amazon)
David Hume: A Treatise of Human Nature (umsonst und legal bei Gutenberg.org)
Karl Popper: Logik der Forschung (bei Amazon)

Update:

Das Buch gibt’s hier.

 

Ich bin raus!