In 1975 nodigden onderzoekers van Stanford een groep studenten uit om deel te nemen aan een onderzoek over zelfmoord. Ze kregen een paar zelfmoordbriefjes te zien. In elk paar was één briefje geschreven door een willekeurige persoon, het andere door een persoon die zich vervolgens van het leven had beroofd. De studenten werd vervolgens gevraagd de echte van de valse briefjes te onderscheiden.
Sommige studenten ontdekten dat ze een genie waren voor deze taak. Van de vijfentwintig paar biljetten herkenden zij vierentwintig keer het echte biljet. Anderen ontdekten dat ze hopeloos waren. Zij herkenden de echte noot slechts in tien gevallen.
Zoals dikwijls het geval is bij psychologische studies, was de hele opzet een bedrog. Hoewel de helft van de notities echt waren – ze waren verkregen van het kantoor van de lijkschouwer van Los Angeles County – waren de scores fictief. De studenten die te horen hadden gekregen dat ze het bijna altijd bij het rechte eind hadden, waren gemiddeld niet kritischer dan degenen die te horen hadden gekregen dat ze het meestal bij het verkeerde eind hadden.
In de tweede fase van het onderzoek werd het bedrog onthuld. De studenten werd verteld dat het echte doel van het experiment was om hun reacties te meten op het denken dat ze goed of fout waren. (Tenslotte werd de studenten gevraagd in te schatten hoeveel zelfmoordbriefjes ze juist hadden ingedeeld en hoeveel ze dachten dat een gemiddelde student juist zou hebben. Op dit punt gebeurde er iets merkwaardigs. De studenten in de groep met de hoogste score zeiden dat ze dachten dat ze het in feite heel goed hadden gedaan – beduidend beter dan de gemiddelde student – ook al hadden ze geen enkele reden om dat te geloven, zoals hun zojuist was verteld. Omgekeerd zeiden degenen die in de groep met de laagste scores waren ingedeeld, dat ze dachten dat ze het aanzienlijk slechter hadden gedaan dan de gemiddelde student – een conclusie die even ongegrond was.
“Eenmaal gevormd,” merkten de onderzoekers droogjes op, “zijn indrukken opmerkelijk hardnekkig.”
Een paar jaar later werd een nieuwe groep Stanford-studenten gerekruteerd voor een verwant onderzoek. De studenten kregen pakketten met informatie over een paar brandweermannen, Frank K. en George H. Frank’s bio vermeldde dat, onder andere, hij had een dochtertje en hij hield van duiken. George had een zoontje en speelde golf. De pakketten bevatten ook de antwoorden van de mannen op wat de onderzoekers de Risicovolle-Conservatieve Keuze Test noemden. Volgens de ene versie van het pakket was Frank een succesvolle brandweerman die op de test bijna altijd voor de veiligste optie koos. In de andere versie koos Frank ook voor de veiligste optie, maar was hij een waardeloze brandweerman die door zijn supervisors verschillende keren “op rapport” was gezet. Nogmaals, halverwege het onderzoek, werden de studenten geïnformeerd dat ze misleid waren, en dat de informatie die ze hadden gekregen volledig fictief was. De studenten werd toen gevraagd hun eigen overtuigingen te beschrijven. Wat voor houding ten opzichte van risico’s denken ze dat een succesvolle brandweerman zou hebben? De studenten die het eerste pakket hadden gekregen, dachten dat hij risico’s zou vermijden. De studenten in de tweede groep dachten dat hij het zou omarmen.
Zelfs nadat het bewijs “voor hun overtuigingen volledig is weerlegd, slagen mensen er niet in om die overtuigingen op de juiste manier te herzien,” merkten de onderzoekers op. In dit geval was de mislukking “bijzonder indrukwekkend”, omdat twee datapunten nooit genoeg informatie zouden zijn geweest om op basis daarvan te generaliseren.
De Stanford-studies werden beroemd. Komende van een groep academici in de jaren zeventig, was de bewering dat mensen niet helder kunnen denken schokkend. Dat is het nu niet meer. Duizenden latere experimenten hebben deze bevinding bevestigd (en verder uitgewerkt). Zoals iedereen die het onderzoek heeft gevolgd – of zelfs maar af en toe een exemplaar van Psychology Today heeft opgepikt – weet, kan elke afgestudeerde student met een klembord aantonen dat redelijk lijkende mensen vaak volstrekt irrationeel zijn. Zelden is dit inzicht zo relevant geweest als nu. Toch blijft er een essentieel raadsel: Hoe zijn we zo geworden?
In een nieuw boek, “The Enigma of Reason” (Harvard), doen de cognitiewetenschappers Hugo Mercier en Dan Sperber een poging om deze vraag te beantwoorden. Mercier, die werkt aan een Frans onderzoeksinstituut in Lyon, en Sperber, nu gevestigd aan de Central European University in Boedapest, wijzen erop dat de rede een geëvolueerde eigenschap is, zoals tweevoetigheid of driekleurenvisie. Het ontstond op de savannes van Afrika, en moet in die context worden begrepen.
Ontdaan van veel cognitief-wetenschappelijk jargon luidt het betoog van Mercier en Sperber min of meer als volgt: Het grootste voordeel van de mens ten opzichte van andere soorten is ons vermogen om samen te werken. Coöperatie is moeilijk tot stand te brengen en bijna net zo moeilijk vol te houden. Voor elk individu is profiteursschap altijd de beste manier van handelen. Het verstand heeft zich niet ontwikkeld om ons in staat te stellen abstracte, logische problemen op te lossen of zelfs om ons te helpen conclusies te trekken uit onbekende gegevens; het heeft zich eerder ontwikkeld om de problemen op te lossen die het gevolg zijn van het leven in groepen waarin wordt samengewerkt.
“Het verstand is een aanpassing aan de hypersociale niche die mensen voor zichzelf hebben geëvolueerd,” schrijven Mercier en Sperber. Denkgewoonten die vanuit een “intellectualistisch” standpunt vreemd, dwaas of gewoon dom lijken, blijken slim te zijn vanuit een sociaal “interactionistisch” perspectief.
Denk aan wat bekend is geworden als “vooringenomenheid”, de neiging van mensen om informatie te omarmen die hun overtuigingen ondersteunt en informatie te verwerpen die deze tegenspreekt. Van de vele vormen van foutief denken die zijn geïdentificeerd, is bevestigingsvooringenomenheid een van de best gecatalogiseerde; het is het onderwerp van hele handboeken met experimenten. Een van de beroemdste daarvan werd, opnieuw, in Stanford uitgevoerd. Voor dit experiment verzamelden onderzoekers een groep studenten die tegengestelde meningen hadden over de doodstraf. De helft van de studenten was er voorstander van en dacht dat het criminaliteit afschrikte; de andere helft was er tegen en dacht dat het geen effect had op criminaliteit.
De studenten werd gevraagd te reageren op twee studies. De ene leverde gegevens die het argument van afschrikking ondersteunden, en de andere leverde gegevens die het in twijfel trokken. Beide studies – je raadt het al – waren verzonnen, en waren ontworpen om objectief gezien even overtuigende statistieken te presenteren. De studenten die oorspronkelijk voor de doodstraf waren, beoordeelden de gegevens voor afschrikking als zeer geloofwaardig en de gegevens tegen afschrikking als niet overtuigend; de studenten die oorspronkelijk tegen de doodstraf waren, deden het omgekeerde. Aan het einde van het experiment werden de studenten opnieuw naar hun mening gevraagd. Degenen die aanvankelijk voor de doodstraf waren, waren er nu nog meer voor; degenen die ertegen waren, waren nog vijandiger.
Als de rede is ontworpen om goede oordelen te genereren, dan is er nauwelijks een ernstigere ontwerpfout denkbaar dan vooringenomenheid. Stelt u zich eens voor, stellen Mercier en Sperber, een muis die net zo denkt als wij. Zo’n muis, “vastbesloten om zijn overtuiging te bevestigen dat er geen katten in de buurt zijn,” zou al snel het avondeten zijn. In de mate dat bevestigingsvooroordelen mensen ertoe brengen om bewijs van nieuwe of ondergewaardeerde bedreigingen te verwerpen – het menselijke equivalent van de kat om de hoek – is dat een eigenschap waartegen geselecteerd had moeten worden. Het feit dat zowel wij als het overleven, zo stellen Mercier en Sperber, bewijst dat het een of andere adaptieve functie moet hebben, en die functie, zo stellen zij, is gerelateerd aan onze “hypersociabiliteit.”
Mercier en Sperber geven de voorkeur aan de term “myside bias.” Mensen, wijzen zij erop, zijn niet willekeurig goedgelovig. Als we een argument van iemand anders te horen krijgen, zijn we heel bedreven in het ontdekken van de zwakke punten. Bijna altijd zijn de standpunten waar we blind voor zijn, die van onszelf.
Een recent experiment, uitgevoerd door Mercier en enkele Europese collega’s, toont deze asymmetrie keurig aan. Deelnemers werd gevraagd een reeks eenvoudige redeneerproblemen te beantwoorden. Vervolgens werd hun gevraagd hun antwoorden toe te lichten, en kregen zij de kans deze te wijzigen indien zij fouten constateerden. De meerderheid was tevreden met hun oorspronkelijke keuzes; minder dan vijftien procent veranderde van mening in stap twee.
In stap drie kregen de deelnemers een van dezelfde problemen te zien, samen met hun antwoord en het antwoord van een andere deelnemer, die tot een andere conclusie was gekomen. Opnieuw kregen ze de kans om hun antwoorden te wijzigen. Maar er was een truc uitgehaald: de antwoorden die hen werden gepresenteerd als die van iemand anders waren in werkelijkheid hun eigen antwoorden, en omgekeerd. Ongeveer de helft van de deelnemers had door wat er aan de hand was. Bij de andere helft werden de mensen plotseling een stuk kritischer. Bijna zestig procent verwierp nu de antwoorden waarmee ze eerder tevreden waren geweest.