Why Facts Don’t Change Our Minds

Im Jahr 1975 luden Forscher in Stanford eine Gruppe von Studenten ein, an einer Studie über Selbstmord teilzunehmen. Ihnen wurden Paare von Abschiedsbriefen vorgelegt. In jedem Paar war ein Brief von einer zufälligen Person verfasst worden, der andere von einer Person, die sich anschließend das Leben genommen hatte. Die Studenten wurden dann gebeten, zwischen den echten und den gefälschten Notizen zu unterscheiden.

Einige Studenten entdeckten, dass sie ein Genie für diese Aufgabe hatten. Von fünfundzwanzig Paaren von Geldscheinen erkannten sie vierundzwanzig Mal den echten. Andere entdeckten, dass sie hoffnungslos unterlegen waren. Sie identifizierten die echte Note in nur zehn Fällen.

Wie so oft bei psychologischen Studien, war die ganze Sache eine Farce. Obwohl die Hälfte der Notizen tatsächlich echt war – sie waren von der Gerichtsmedizin in Los Angeles County beschafft worden – waren die Ergebnisse fiktiv. Die Studenten, denen man gesagt hatte, dass sie fast immer richtig lagen, waren im Durchschnitt nicht anspruchsvoller als diejenigen, denen man gesagt hatte, dass sie meistens falsch lagen.

In der zweiten Phase der Studie wurde die Täuschung aufgedeckt. Den Studenten wurde gesagt, dass der eigentliche Zweck des Experiments darin bestand, ihre Reaktionen auf das Gefühl, richtig oder falsch zu liegen, zu messen. (Dies war, wie sich herausstellte, ebenfalls eine Täuschung.) Schließlich wurden die Studenten gebeten, zu schätzen, wie viele Selbstmordanzeigen sie tatsächlich richtig kategorisiert hatten und wie viele sie glaubten, dass ein durchschnittlicher Student richtig liegen würde. An diesem Punkt geschah etwas Merkwürdiges. Die Schülerinnen und Schüler der Gruppe mit der höchsten Punktzahl gaben an, dass sie ihrer Meinung nach recht gut abgeschnitten hätten – deutlich besser als der Durchschnitt -, obwohl sie, wie ihnen gerade gesagt worden war, keinerlei Grund hatten, dies zu glauben. Umgekehrt sagten diejenigen, die der Gruppe mit den niedrigen Punktzahlen zugeteilt worden waren, dass sie glaubten, deutlich schlechter als der Durchschnitt abgeschnitten zu haben – eine Schlussfolgerung, die ebenso unbegründet war.

Weiterlesen

„Einmal entstandene Eindrücke“, bemerkten die Forscher trocken, „sind bemerkenswert beständig.“

Einige Jahre später wurde eine neue Gruppe von Stanford-Studenten für eine ähnliche Studie rekrutiert. Den Studenten wurden Informationspakete über die beiden Feuerwehrmänner Frank K. und George H. ausgehändigt. In Franks Lebenslauf stand unter anderem, dass er eine kleine Tochter hat und gerne taucht. George hatte einen kleinen Sohn und spielte Golf. Die Pakete enthielten auch die Antworten der Männer auf den von den Forschern so genannten „Riskant-Konservativen Wahltest“. Laut einer Version des Pakets war Frank ein erfolgreicher Feuerwehrmann, der sich bei diesem Test fast immer für die sicherste Option entschied. In der anderen Version wählte Frank ebenfalls die sicherste Option, aber er war ein miserabler Feuerwehrmann, der von seinen Vorgesetzten mehrmals „zur Kasse gebeten“ worden war. Auch hier wurden die Studenten in der Mitte der Studie darüber informiert, dass sie in die Irre geführt worden waren und dass die Informationen, die sie erhalten hatten, völlig frei erfunden waren. Die Studenten wurden dann gebeten, ihre eigenen Überzeugungen zu beschreiben. Was für eine Einstellung zum Risiko sollte ein erfolgreicher Feuerwehrmann ihrer Meinung nach haben? Die Schüler, die das erste Paket erhalten hatten, dachten, dass er es vermeiden würde. Die Studenten der zweiten Gruppe dachten, er würde es annehmen.

Selbst nachdem die Beweise „für ihre Überzeugungen vollständig widerlegt wurden, versäumen es die Menschen, diese Überzeugungen entsprechend zu revidieren“, stellten die Forscher fest. In diesem Fall war das Versagen „besonders beeindruckend“, da zwei Datenpunkte nie genug Informationen für eine Verallgemeinerung gewesen wären.

Die Stanford-Studien wurden berühmt. Die Behauptung einer Gruppe von Akademikern aus den siebziger Jahren, dass Menschen nicht klar denken können, war schockierend. Das ist sie heute nicht mehr. Tausende von nachfolgenden Experimenten haben diese Erkenntnis bestätigt (und weiter vertieft). Wie jeder, der die Forschung verfolgt hat – oder auch nur gelegentlich eine Ausgabe von Psychology Today in die Hand nimmt -, weiß, kann jeder Student mit einem Klemmbrett nachweisen, dass scheinbar vernünftige Menschen oft völlig irrational sind. Selten war diese Erkenntnis aktueller als in diesem Augenblick. Dennoch bleibt ein wesentliches Rätsel bestehen: Wie sind wir so geworden?

In einem neuen Buch, „The Enigma of Reason“ (Harvard), versuchen die Kognitionswissenschaftler Hugo Mercier und Dan Sperber, diese Frage zu beantworten. Mercier, der an einem französischen Forschungsinstitut in Lyon arbeitet, und Sperber, der jetzt an der Central European University in Budapest tätig ist, weisen darauf hin, dass die Vernunft ein evolutives Merkmal ist, wie der Zweibeinertum oder das dreifarbige Sehen. Sie ist in den Savannen Afrikas entstanden und muss in diesem Kontext verstanden werden.

Abgesehen von dem, was man als kognitionswissenschaftliche Fachsprache bezeichnen könnte, lautet das Argument von Mercier und Sperber mehr oder weniger wie folgt: Der größte Vorteil des Menschen gegenüber anderen Arten ist seine Fähigkeit zur Zusammenarbeit. Kooperation ist schwer zu etablieren und fast ebenso schwer aufrechtzuerhalten. Für jedes Individuum ist Trittbrettfahren immer die beste Vorgehensweise. Die Vernunft hat sich nicht entwickelt, um uns in die Lage zu versetzen, abstrakte, logische Probleme zu lösen oder uns sogar dabei zu helfen, Schlussfolgerungen aus unbekannten Daten zu ziehen; sie hat sich vielmehr entwickelt, um die Probleme zu lösen, die das Leben in kooperativen Gruppen mit sich bringt.

„Die Vernunft ist eine Anpassung an die hypersoziale Nische, die der Mensch für sich entwickelt hat“, schreiben Mercier und Sperber. Denkgewohnheiten, die aus der Sicht der Intellektuellen seltsam, albern oder einfach nur dumm erscheinen, erweisen sich aus der Perspektive der sozialen Interaktion als klug.

Betrachten wir das, was als „Confirmation Bias“ bekannt geworden ist: die Tendenz der Menschen, Informationen anzunehmen, die ihre Überzeugungen unterstützen, und Informationen abzulehnen, die ihnen widersprechen. Von den vielen Formen fehlerhaften Denkens, die identifiziert worden sind, gehört die Bestätigungsneigung zu den am besten katalogisierten; sie ist das Thema ganzer Lehrbücher voller Experimente. Eines der berühmtesten dieser Experimente wurde wiederum in Stanford durchgeführt. Für dieses Experiment versammelten die Forscher eine Gruppe von Studenten, die gegensätzliche Meinungen zur Todesstrafe hatten. Die Hälfte der Studenten befürwortete sie und war der Meinung, dass sie abschreckend auf Verbrechen wirke; die andere Hälfte war dagegen und glaubte, dass sie keine Auswirkungen auf Verbrechen habe.

Die Studenten wurden gebeten, auf zwei Studien zu antworten. Die eine lieferte Daten, die das Abschreckungsargument unterstützten, die andere lieferte Daten, die es in Frage stellten. Beide Studien – Sie haben es erraten – waren erfunden und so angelegt, dass sie objektiv betrachtet gleichermaßen überzeugende Statistiken lieferten. Die Studenten, die ursprünglich die Todesstrafe befürwortet hatten, bewerteten die Daten, die für die Abschreckung sprachen, als sehr glaubwürdig und die Daten, die gegen die Abschreckung sprachen, als nicht überzeugend; bei den Studenten, die ursprünglich gegen die Todesstrafe waren, war es umgekehrt. Am Ende des Experiments wurden die Schüler noch einmal zu ihren Ansichten befragt. Diejenigen, die ursprünglich für die Todesstrafe waren, befürworteten sie nun noch mehr; diejenigen, die sie ablehnten, waren sogar noch feindseliger.

Wenn die Vernunft so konzipiert ist, dass sie fundierte Urteile hervorbringt, dann ist ein schwerwiegenderer Konstruktionsfehler als der Bestätigungsfehler kaum vorstellbar. Stellen Sie sich, so Mercier und Sperber, eine Maus vor, die so denkt wie wir. Eine solche Maus, die „darauf versessen ist, ihre Überzeugung zu bestätigen, dass keine Katzen in der Nähe sind“, wäre bald ein Abendessen. In dem Maße, in dem der Bestätigungsfimmel Menschen dazu verleitet, Hinweise auf neue oder unterschätzte Bedrohungen zu ignorieren – das menschliche Äquivalent zur Katze um die Ecke -, ist dies eine Eigenschaft, gegen die man hätte selektieren müssen. Die Tatsache, dass sowohl wir als auch sie überleben, so argumentieren Mercier und Sperber, beweist, dass sie eine adaptive Funktion haben muss, und diese Funktion, so behaupten sie, hängt mit unserer „Hypersozialität“ zusammen. Der Mensch, so betonen sie, ist nicht zufällig leichtgläubig. Wenn man uns die Argumente eines anderen vorlegt, sind wir recht geschickt darin, die Schwachstellen zu erkennen. Fast immer sind die Positionen, bei denen wir blind sind, unsere eigenen.

Ein kürzlich von Mercier und einigen europäischen Kollegen durchgeführtes Experiment demonstriert diese Asymmetrie sehr anschaulich. Die Teilnehmer wurden gebeten, eine Reihe einfacher logischer Aufgaben zu beantworten. Anschließend wurden sie gebeten, ihre Antworten zu erläutern, und erhielten die Möglichkeit, sie zu ändern, wenn sie Fehler erkannten. Die Mehrheit war mit ihrer ursprünglichen Wahl zufrieden; weniger als fünfzehn Prozent änderten ihre Meinung in Schritt zwei.

In Schritt drei wurde den Teilnehmern eine der gleichen Aufgaben gezeigt, zusammen mit ihrer Antwort und der Antwort eines anderen Teilnehmers, der zu einer anderen Schlussfolgerung gekommen war. Erneut wurde ihnen die Möglichkeit gegeben, ihre Antworten zu ändern. Doch es wurde ein Trick angewandt: Die Antworten, die ihnen als die eines anderen Teilnehmers präsentiert wurden, waren in Wirklichkeit ihre eigenen, und umgekehrt. Etwa die Hälfte der Teilnehmer erkannte, was vor sich ging. Bei der anderen Hälfte wurden die Leute plötzlich sehr viel kritischer. Fast sechzig Prozent lehnten nun die Antworten ab, mit denen sie zuvor zufrieden gewesen waren.

a20683
„Nochmals danke, dass Sie gekommen sind – ich finde diese Büropartys normalerweise eher unangenehm.“

Diese Einseitigkeit, so Mercier und Sperber, spiegelt die Aufgabe wider, die die Vernunft entwickelt hat, nämlich zu verhindern, dass wir von den anderen Mitgliedern unserer Gruppe verarscht werden. Unsere Vorfahren, die in kleinen Gruppen von Jägern und Sammlern lebten, waren in erster Linie um ihr soziales Ansehen besorgt und mussten sicherstellen, dass sie nicht diejenigen waren, die ihr Leben auf der Jagd riskierten, während andere in der Höhle herumlungerten. Es war wenig von Vorteil, klar zu argumentieren, während man viel davon hatte, Argumente zu gewinnen.

Zu den vielen, vielen Fragen, über die sich unsere Vorfahren keine Gedanken machten, gehörten die abschreckende Wirkung der Todesstrafe und die idealen Eigenschaften eines Feuerwehrmanns. Sie mussten sich auch nicht mit gefälschten Studien, Fake News oder Twitter herumschlagen. Kein Wunder also, dass die Vernunft uns heute oft im Stich zu lassen scheint. Mercier und Sperber schreiben: „Dies ist einer von vielen Fällen, in denen sich die Umwelt zu schnell verändert hat, als dass die natürliche Auslese aufholen konnte.“

Steven Sloman, Professor an der Brown University, und Philip Fernbach, Professor an der University of Colorado, sind ebenfalls Kognitionswissenschaftler. Auch sie glauben, dass Geselligkeit der Schlüssel dazu ist, wie der menschliche Verstand funktioniert oder, was vielleicht noch wichtiger ist, wie er nicht funktioniert. Sie beginnen ihr Buch „Die Wissensillusion: Why We Never Think Alone“ (Riverhead), mit einem Blick auf Toiletten.

In den Vereinigten Staaten und in der Tat in der gesamten entwickelten Welt ist praktisch jeder mit Toiletten vertraut. Eine typische Toilette mit Wasserspülung hat eine mit Wasser gefüllte Keramikschüssel. Wenn man den Griff betätigt oder den Knopf drückt, wird das Wasser – und alles, was sich darin abgelagert hat – in ein Rohr und von dort in die Kanalisation gesaugt. Aber wie geschieht das eigentlich?

In einer in Yale durchgeführten Studie wurden Studenten gebeten, ihr Verständnis für alltägliche Geräte wie Toiletten, Reißverschlüsse und Zylinderschlösser zu bewerten. Anschließend sollten sie detaillierte, schrittweise Erklärungen zur Funktionsweise der Geräte verfassen und ihr Verständnis erneut bewerten. Offensichtlich offenbarte die Anstrengung den Schülern ihre eigene Unwissenheit, denn ihre Selbsteinschätzungen fielen. (Es stellte sich heraus, dass Toiletten komplizierter sind, als sie erscheinen.)

Sloman und Fernbach beobachten diesen Effekt, den sie die „Illusion der Erklärungstiefe“ nennen, fast überall. Die Menschen glauben, dass sie viel mehr wissen, als sie tatsächlich wissen. Was uns erlaubt, in diesem Glauben zu verharren, sind andere Menschen. Im Falle meiner Toilette hat jemand anderes sie so konstruiert, dass ich sie leicht bedienen kann. Das ist etwas, was Menschen sehr gut können. Seitdem wir herausgefunden haben, wie wir gemeinsam jagen können, was wahrscheinlich eine Schlüsselentwicklung in unserer Evolutionsgeschichte war, verlassen wir uns auf das Fachwissen der anderen. Wir arbeiten so gut zusammen, argumentieren Sloman und Fernbach, dass wir kaum sagen können, wo unser eigenes Verständnis endet und das der anderen beginnt.

„Eine Folge der Natürlichkeit, mit der wir kognitive Arbeit aufteilen“, schreiben sie, ist, dass es „keine scharfe Grenze zwischen den Ideen und dem Wissen einer Person“ und „denen der anderen Mitglieder“ der Gruppe gibt.

Diese Grenzenlosigkeit, oder, wenn Sie es vorziehen, Verwirrung, ist auch entscheidend für das, was wir als Fortschritt betrachten. Als die Menschen neue Werkzeuge für neue Lebensweisen erfanden, schufen sie gleichzeitig neue Bereiche der Unwissenheit; wenn jeder darauf bestanden hätte, beispielsweise die Prinzipien der Metallverarbeitung zu beherrschen, bevor er ein Messer in die Hand nahm, hätte die Bronzezeit nicht viel gebracht. Wenn es um neue Technologien geht, ist ein unvollständiges Verständnis ermächtigend.

Wo es uns in Schwierigkeiten bringt, so Sloman und Fernbach, ist im politischen Bereich. Es ist eine Sache, wenn ich eine Toilette spüle, ohne zu wissen, wie sie funktioniert, und eine andere, wenn ich ein Einwanderungsverbot befürworte (oder ablehne), ohne zu wissen, wovon ich rede. Sloman und Fernbach zitieren eine Umfrage aus dem Jahr 2014, nicht lange nachdem Russland die ukrainische Krim annektiert hatte. Die Befragten wurden gefragt, wie ihrer Meinung nach die USA reagieren sollten, und ob sie die Ukraine auf einer Landkarte erkennen könnten. Je weniger sie sich mit der Geografie auskannten, desto eher befürworteten sie ein militärisches Eingreifen. (Die Befragten waren sich über die Lage der Ukraine so unsicher, dass der Medianwert um achtzehnhundert Meilen falsch war, was in etwa der Entfernung von Kiew nach Madrid entspricht.)

Umfragen zu vielen anderen Themen haben ähnlich bestürzende Ergebnisse erbracht. „In der Regel entstehen starke Gefühle zu Themen nicht aus tiefem Verständnis“, schreiben Sloman und Fernbach. Und hier verstärkt unsere Abhängigkeit von anderen Köpfen das Problem. Wenn Ihre Position, beispielsweise zum Affordable Care Act, unbegründet ist und ich mich darauf verlasse, dann ist auch meine Meinung unbegründet. Wenn ich mit Tom spreche und er beschließt, mit mir übereinzustimmen, ist seine Meinung ebenfalls unbegründet, aber jetzt, da wir drei uns einig sind, fühlen wir uns umso selbstgefälliger mit unseren Ansichten. Wenn wir nun alle Informationen, die unserer Meinung widersprechen, als nicht überzeugend abtun, entsteht, nun ja, die Trump-Regierung.

„So kann eine Wissensgemeinschaft gefährlich werden“, stellen Sloman und Fernbach fest. Die beiden haben ihre eigene Version des Toilettenexperiments durchgeführt, indem sie die Haushaltsgeräte durch die öffentliche Politik ersetzt haben. In einer 2012 durchgeführten Studie fragten sie die Menschen nach ihrer Haltung zu Fragen wie: Sollte es ein einseitiges Gesundheitssystem geben? Oder eine leistungsabhängige Bezahlung für Lehrer? Die Teilnehmer wurden gebeten, ihre Position zu bewerten, je nachdem, wie stark sie den Vorschlägen zustimmten oder sie ablehnten. Anschließend sollten sie so detailliert wie möglich die Auswirkungen der Umsetzung jedes einzelnen Vorschlags erläutern. Die meisten Teilnehmer gerieten an diesem Punkt in Schwierigkeiten. Als sie erneut gebeten wurden, ihre Ansichten zu bewerten, nahmen sie die Intensität zurück, so dass sie entweder zustimmten oder weniger vehement ablehnten.

Sloman und Fernbach sehen in diesem Ergebnis eine kleine Kerze für eine dunkle Welt. Wenn wir – oder unsere Freunde oder die Experten auf CNN – weniger Zeit damit verbringen würden, zu dozieren, und mehr versuchen würden, die Auswirkungen von politischen Vorschlägen zu durchdenken, würden wir erkennen, wie ahnungslos wir sind und unsere Ansichten mäßigen. Dies, so schreiben sie, „könnte die einzige Form des Denkens sein, die die Illusion der erklärenden Tiefe zerschlägt und die Einstellung der Menschen ändert.“

Eine Möglichkeit, die Wissenschaft als ein System zu betrachten, das die natürlichen Neigungen der Menschen korrigiert. In einem gut geführten Labor gibt es keinen Raum für eigene Voreingenommenheit; die Ergebnisse müssen in anderen Labors reproduzierbar sein, und zwar von Forschern, die kein Motiv haben, sie zu bestätigen. Und das, so könnte man argumentieren, ist der Grund, warum sich das System als so erfolgreich erwiesen hat. Zu einem bestimmten Zeitpunkt kann ein Bereich von Streitigkeiten beherrscht werden, aber am Ende setzt sich die Methodik durch. Die Wissenschaft schreitet voran, auch wenn wir auf der Stelle treten.

In „Denying to the Grave: Why We Ignore the Facts That Will Save Us“ (Oxford) untersuchen Jack Gorman, ein Psychiater, und seine Tochter Sara Gorman, eine Expertin für öffentliche Gesundheit, die Kluft zwischen dem, was die Wissenschaft uns sagt, und dem, was wir uns selbst einreden. Sie befassen sich mit jenen hartnäckigen Überzeugungen, die nicht nur nachweislich falsch, sondern auch potenziell tödlich sind, wie die Überzeugung, dass Impfstoffe gefährlich sind. Natürlich ist es gefährlich, sich nicht impfen zu lassen; deshalb wurden Impfstoffe ja überhaupt erst entwickelt. „Die Impfung ist eine der größten Errungenschaften der modernen Medizin“, so die Gormans. Doch egal, wie viele wissenschaftliche Studien zu dem Schluss kommen, dass Impfstoffe sicher sind und dass es keinen Zusammenhang zwischen Impfungen und Autismus gibt, die Impfgegner bleiben unbeeindruckt. (Sie haben jetzt Donald Trump auf ihrer Seite, der gesagt hat, dass er und seine Frau ihren Sohn Barron zwar impfen ließen, sich aber weigerten, dies nach dem von den Kinderärzten empfohlenen Zeitplan zu tun.)

Auch die Gormans argumentieren, dass Denkweisen, die heute selbstzerstörerisch erscheinen, irgendwann einmal adaptiv gewesen sein müssen. Und auch sie widmen viele Seiten dem Bestätigungsfehler, der ihrer Meinung nach eine physiologische Komponente hat. Sie zitieren Forschungsergebnisse, die darauf hindeuten, dass Menschen bei der Verarbeitung von Informationen, die ihre Überzeugungen unterstützen, ein echtes Vergnügen – einen Dopaminschub – erleben. „Es fühlt sich gut an, wenn wir an unseren Überzeugungen festhalten, selbst wenn wir falsch liegen“, stellen sie fest.

Die Gormans wollen nicht nur die Möglichkeiten aufzählen, die wir falsch machen, sondern sie auch korrigieren. Es muss einen Weg geben, die Menschen davon zu überzeugen, dass Impfstoffe gut für Kinder und Handfeuerwaffen gefährlich sind. (Eine weitere weit verbreitete, aber statistisch nicht belegbare Überzeugung, die sie gerne widerlegen würden, ist die, dass der Besitz einer Waffe die Sicherheit erhöht.) Aber hier stoßen sie auf genau die Probleme, die sie aufgezählt haben. Es scheint nicht zu helfen, die Menschen mit genauen Informationen zu versorgen; sie ignorieren sie einfach. An die Emotionen der Menschen zu appellieren, mag besser funktionieren, aber das steht offensichtlich im Widerspruch zu dem Ziel, fundierte Wissenschaft zu fördern. „Die Herausforderung, die bleibt“, schreiben sie gegen Ende ihres Buches, „besteht darin, herauszufinden, wie man die Tendenzen bekämpfen kann, die zu falschen wissenschaftlichen Überzeugungen führen.“

„Das Rätsel der Vernunft“, „Die Wissensillusion“ und „Leugnen bis ins Grab“ wurden alle vor den Wahlen im November geschrieben. Und doch nehmen sie Kellyanne Conway und den Aufstieg der „alternativen Fakten“ vorweg. In diesen Tagen hat man das Gefühl, als sei das ganze Land einem riesigen psychologischen Experiment ausgeliefert, das entweder von niemandem oder von Steve Bannon geleitet wird. Rationale Akteure wären in der Lage, sich eine Lösung zu überlegen. Aber die Literatur zu diesem Thema ist nicht gerade beruhigend. ♦

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht.