1975 bjöd forskare vid Stanford in en grupp studenter att delta i en studie om självmord. De presenterades för par av självmordsbrev. I varje par hade det ena brevet skrivits av en slumpmässig person, det andra av en person som senare hade tagit sitt eget liv. Studenterna ombads sedan att skilja mellan de äkta lapparna och de falska lapparna.
Vissa studenter upptäckte att de hade ett geni för uppgiften. Av tjugofem par sedlar identifierade de korrekt den äkta sedeln tjugofyra gånger. Andra upptäckte att de var hopplösa. De identifierade den riktiga noten i endast tio fall.
Som ofta är fallet med psykologiska studier var hela upplägget ett påhitt. Även om hälften av lapparna verkligen var äkta – de hade erhållits från Los Angeles County coroner’s office – var poängen fiktiva. De elever som hade fått höra att de nästan alltid hade rätt var i genomsnitt inte mer kritiska än de som hade fått höra att de oftast hade fel.
I den andra fasen av studien avslöjades bedrägeriet. Studenterna fick veta att den verkliga poängen med experimentet var att mäta deras svar på om de trodde att de hade rätt eller fel. (Detta visade sig också vara ett bedrägeri.) Slutligen ombads studenterna att uppskatta hur många självmordsbrev de faktiskt hade kategoriserat rätt och hur många de trodde att en genomsnittlig student skulle få rätt. Vid det här laget hände något märkligt. Studenterna i gruppen med höga poäng sa att de trodde att de faktiskt hade gjort det ganska bra – betydligt bättre än den genomsnittliga studenten – även om de, som de just hade fått höra, inte hade någon som helst anledning att tro detta. Omvänt sa de som hade hamnat i gruppen med låga poäng att de trodde att de hade klarat sig betydligt sämre än genomsnittsstudenten – en slutsats som var lika ogrundad.
”När de väl har bildats”, konstaterade forskarna torrt, ”är intrycken anmärkningsvärt ihärdiga.”
För några år sedan rekryterades en ny uppsättning Stanford-studenter för en relaterad studie. Studenterna fick informationspaket med information om ett par brandmän, Frank K. och George H. I Franks biografi angavs bland annat att han hade en liten dotter och att han gillade att dyka. George hade en liten son och spelade golf. Paketen innehöll också männens svar på vad forskarna kallade Risky-Conservative Choice Test. Enligt en version av paketet var Frank en framgångsrik brandman som på testet nästan alltid valde det säkraste alternativet. I den andra versionen valde Frank också det säkraste alternativet, men han var en usel brandman som hade blivit ”rapporterad” av sina chefer flera gånger. Ännu en gång, efter halva studien, informerades eleverna om att de hade blivit vilseledda och att den information de hade fått var helt fiktiv. Studenterna ombads sedan att beskriva sina egna övertygelser. Vilken typ av inställning till risk trodde de att en framgångsrik brandman skulle ha? De elever som hade fått det första paketet trodde att han skulle undvika det. Studenterna i den andra gruppen trodde att han skulle omfamna den.
Även efter att bevisen ”för deras uppfattningar har blivit helt motbevisade, misslyckas människor med att göra lämpliga revideringar i dessa uppfattningar”, konstaterade forskarna. I det här fallet var misslyckandet ”särskilt imponerande”, eftersom två datapunkter aldrig skulle ha varit tillräckligt med information för att generalisera utifrån.
Stanfordstudierna blev berömda. När de kom från en grupp akademiker på sjuttiotalet var påståendet att människor inte kan tänka klart chockerande. Det är det inte längre. Tusentals efterföljande experiment har bekräftat (och utvecklat) detta konstaterande. Som alla som har följt forskningen – eller till och med ibland plockat upp ett exemplar av Psychology Today – vet kan vilken doktorand som helst med ett klippblock visa att människor som verkar rimliga ofta är helt irrationella. Sällan har denna insikt verkat mer relevant än vad den gör just nu. Ändå återstår en viktig gåta: I en ny bok, ”The Enigma of Reason” (Harvard), gör kognitionsforskarna Hugo Mercier och Dan Sperber ett försök att besvara denna fråga. Mercier, som arbetar vid ett franskt forskningsinstitut i Lyon, och Sperber, som numera arbetar vid Centraleuropeiska universitetet i Budapest, påpekar att förnuftet är en utvecklad egenskap, precis som bipedalism eller trefärgssyn. Det uppstod på Afrikas savanner och måste förstås i det sammanhanget.
Utan en hel del av det som skulle kunna kallas kognitionsvetenskapligt språk går Mercier och Sperbers argument mer eller mindre ut på följande sätt: Människans största fördel jämfört med andra arter är vår förmåga att samarbeta. Samarbete är svårt att skapa och nästan lika svårt att upprätthålla. För varje individ är snyltande alltid det bästa tillvägagångssättet. Förnuftet utvecklades inte för att göra det möjligt för oss att lösa abstrakta, logiska problem eller ens för att hjälpa oss att dra slutsatser av obekanta uppgifter; det utvecklades snarare för att lösa de problem som uppstår när vi lever i samarbetande grupper.
”Förnuftet är en anpassning till den hypersociala nisch som människan har utvecklat för sig själv”, skriver Mercier och Sperber. Sinnen som verkar konstiga, fåniga eller helt enkelt dumma ur en ”intellektualistisk” synvinkel visar sig vara smarta när de ses ur ett socialt ”interaktionistiskt” perspektiv.
Tänk på vad som har blivit känt som ”bekräftelsebias”, den tendens som människor har att ta till sig information som stödjer deras övertygelser och förkasta information som motsäger dem. Av de många former av felaktigt tänkande som har identifierats är bekräftelsebias en av de bäst katalogiserade; den är föremål för experiment i hela läroböcker. Ett av de mest kända av dessa genomfördes, återigen, på Stanford. För detta experiment samlade forskarna ihop en grupp studenter som hade motsatta åsikter om dödsstraff. Hälften av studenterna var för den och ansåg att den avskräckte brottslighet; den andra hälften var emot den och ansåg att den inte hade någon effekt på brottsligheten.
Studenterna ombads att svara på två studier. Den ena gav uppgifter som stödde argumentet om avskräckning och den andra gav uppgifter som ifrågasatte det. Båda studierna – ni gissade det – var påhittade och hade utformats för att presentera vad som objektivt sett var lika övertygande statistik. De elever som ursprungligen hade stött dödsstraffet bedömde uppgifterna för avskräckning som mycket trovärdiga och uppgifterna mot avskräckning som föga övertygande; de elever som ursprungligen hade motsatt sig dödsstraffet gjorde tvärtom. I slutet av experimentet tillfrågades eleverna återigen om sina åsikter. De som från början hade varit för dödsstraff var nu ännu mer för det; de som hade motsatt sig det var ännu mer fientliga.
Om förnuftet är utformat för att generera sunda bedömningar är det svårt att föreställa sig ett allvarligare konstruktionsfel än konfirmeringsbias. Föreställ dig, föreslår Mercier och Sperber, en mus som tänker på samma sätt som vi gör. En sådan mus, som är ”inriktad på att bekräfta sin tro på att det inte finns några katter i närheten”, skulle snart bli middag. I den mån bekräftelsebias leder till att människor avfärdar bevis på nya eller underskattade hot – den mänskliga motsvarigheten till katten runt hörnet – är det en egenskap som borde ha selekterats bort. Det faktum att både vi och den överlever, hävdar Mercier och Sperber, bevisar att den måste ha någon adaptiv funktion, och den funktionen, hävdar de, är relaterad till vår ”hypersociabilitet”.
Mercier och Sperber föredrar termen ”myside bias”. Människor, påpekar de, är inte slumpmässigt godtrogna. När vi får höra någon annans argument är vi ganska skickliga på att upptäcka svagheterna. Nästan alltid är de ståndpunkter som vi är blinda för våra egna.
Ett nyligen utfört experiment som Mercier och några europeiska kollegor utfört visar tydligt denna asymmetri. Deltagarna ombads att besvara en rad enkla resonemangsproblem. De ombads sedan att förklara sina svar och fick en chans att ändra dem om de upptäckte misstag. Majoriteten var nöjda med sina ursprungliga val; färre än femton procent ändrade sig i steg två.
I steg tre fick deltagarna se ett av samma problem, tillsammans med sitt svar och svaret från en annan deltagare, som hade kommit fram till en annan slutsats. Återigen fick de chansen att ändra sina svar. Men ett trick hade spelats ut: de svar som presenterades för dem som någon annans svar var i själva verket deras egna, och vice versa. Ungefär hälften av deltagarna insåg vad som pågick. Bland den andra hälften blev folk plötsligt mycket mer kritiska. Nästan sextio procent förkastade nu de svar som de tidigare hade varit nöjda med.
Denna skevhet återspeglar enligt Mercier och Sperber den uppgift som förnuftet utvecklats för att utföra, nämligen att förhindra att vi blir blåsta av de andra medlemmarna i vår grupp. När våra förfäder levde i små grupper av jägare och samlare var de i första hand intresserade av sin sociala ställning och av att se till att det inte var de som riskerade sina liv på jakt medan andra slösade bort sina liv i grottan. Det fanns inte många fördelar med att resonera klart, medan det fanns mycket att vinna på att vinna argument.
En av de många, många frågor som våra förfäder inte bekymrade sig om var dödsstraffets avskräckande effekter och de ideala egenskaperna hos en brandman. De behövde inte heller brottas med påhittade studier, falska nyheter eller Twitter. Det är därför inte konstigt att förnuftet i dag ofta tycks svika oss. Som Mercier och Sperber skriver: ”Detta är ett av många fall där miljön förändrades för snabbt för att det naturliga urvalet skulle hinna ikapp.”
Steven Sloman, professor vid Brown, och Philip Fernbach, professor vid University of Colorado, är också kognitionsforskare. Även de tror att socialitet är nyckeln till hur det mänskliga sinnet fungerar eller, kanske mer relevant, fungerar dåligt. De inleder sin bok ”The Knowledge Illusion: Why We Never Think Alone” (Riverhead), med en titt på toaletter.
Nästan alla i USA, och faktiskt i hela den utvecklade världen, känner till toaletter. En typisk spoltoalett har en keramisk skål fylld med vatten. När handtaget trycks ned eller knappen trycks in sugs vattnet – och allt som har avsatts i det – in i ett rör och därifrån ut i avloppssystemet. Men hur går det egentligen till?
I en studie som genomfördes på Yale ombads doktorander att bedöma sin förståelse för vardagliga apparater, bland annat toaletter, blixtlås och cylinderlås. De ombads sedan att skriva detaljerade, steg-för-steg-förklaringar av hur apparaterna fungerar, och att bedöma sin förståelse igen. Uppenbarligen avslöjade ansträngningen för studenterna deras egen okunnighet, eftersom deras självbedömningar sjönk. (Toaletter, visar det sig, är mer komplicerade än de ser ut att vara.)
Sloman och Fernbach ser denna effekt, som de kallar ”illusionen om förklaringsdjup”, nästan överallt. Människor tror att de vet mycket mer än vad de faktiskt gör. Det som gör att vi kan framhärda i denna tro är andra människor. När det gäller min toalett har någon annan konstruerat den så att jag lätt kan använda den. Detta är något som människor är mycket bra på. Vi har förlitat oss på varandras expertis ända sedan vi kom på hur vi kunde jaga tillsammans, vilket förmodligen var en viktig utveckling i vår evolutionära historia. Sloman och Fernbach hävdar att vi samarbetar så bra att vi knappt kan säga var vår egen förståelse slutar och andras börjar.
”En konsekvens av den naturlighet med vilken vi delar upp det kognitiva arbetet”, skriver de, är att det ”inte finns någon skarp gräns mellan en persons idéer och kunskap” och ”de som tillhör andra medlemmar” i gruppen.
Den här gränslösheten, eller, om du föredrar det, förvirringen, är också avgörande för vad vi anser vara framsteg. När människor uppfann nya verktyg för nya sätt att leva skapade de samtidigt nya områden av okunskap; om alla hade insisterat på att, till exempel, behärska principerna för metallbearbetning innan de tog upp en kniv, skulle bronsåldern inte ha blivit så mycket. När det gäller ny teknik är ofullständig förståelse stärkande.
Där det ställer till det för oss, enligt Sloman och Fernbach, är på det politiska området. Det är en sak för mig att spola en toalett utan att veta hur den fungerar, och en annan sak för mig att förespråka (eller motsätta mig) ett invandringsförbud utan att veta vad jag pratar om. Sloman och Fernbach citerar en undersökning som genomfördes 2014, inte långt efter att Ryssland annekterat det ukrainska territoriet Krim. De tillfrågade tillfrågades hur de tyckte att USA skulle reagera, och även om de kunde identifiera Ukraina på en karta. Ju mer fel de hade på geografin, desto mer sannolikt var det att de var för ett militärt ingripande. (De svarande var så osäkra på Ukrainas läge att medianen för gissningen var fel med 1 800 mil, ungefär avståndet från Kiev till Madrid.)
Undersökningar om många andra frågor har gett liknande skrämmande resultat. ”Som regel uppstår starka känslor om frågor inte av djup förståelse”, skriver Sloman och Fernbach. Och här förstärker vårt beroende av andra sinnen problemet. Om din ståndpunkt om till exempel Affordable Care Act är grundlös och jag förlitar mig på den, är min åsikt också grundlös. När jag pratar med Tom och han bestämmer sig för att hålla med mig är hans åsikt också grundlös, men nu när vi tre är överens känner vi oss ännu mer övertygade om våra åsikter. Om vi alla nu avfärdar all information som motsäger vår åsikt som icke övertygande, får vi Trump-administrationen.
”Det är så här en kunskapsgemenskap kan bli farlig”, konstaterar Sloman och Fernbach. De två har utfört sin egen version av toalettexperimentet genom att byta ut offentlig politik mot hushållsprylar. I en studie som genomfördes 2012 frågade de människor om deras inställning till frågor som t.ex: Bör det finnas ett sjukförsäkringssystem med en enda betalare? Eller meritbaserad lön för lärare? Deltagarna ombads att betygsätta sina ståndpunkter beroende på hur starkt de höll med eller inte höll med om förslagen. Därefter fick de i uppgift att så detaljerat som möjligt förklara konsekvenserna av att genomföra varje förslag. De flesta fick problem vid denna punkt. När de återigen ombads att bedöma sina åsikter sänkte de intensiteten, så att de antingen instämde eller inte instämde lika starkt.
Sloman och Fernbach ser i detta resultat ett litet ljus för en mörk värld. Om vi – eller våra vänner eller experterna på CNN – ägnade mindre tid åt att pontificera och mer åt att försöka arbeta igenom konsekvenserna av politiska förslag, skulle vi inse hur okunniga vi är och moderera våra åsikter. Detta, skriver de, ”kan vara den enda form av tänkande som kommer att krossa illusionen om förklaringsdjup och förändra människors attityder.”
Ett sätt att se på vetenskapen är som ett system som korrigerar för människors naturliga böjelser. I ett välskött laboratorium finns det inget utrymme för egenbias; resultaten måste kunna reproduceras i andra laboratorier, av forskare som inte har något motiv att bekräfta dem. Och detta, skulle man kunna hävda, är anledningen till att systemet har visat sig vara så framgångsrikt. Vid varje givet tillfälle kan ett område domineras av käbbel, men i slutändan segrar metodiken. Vetenskapen rör sig framåt, även om vi förblir fast på plats.
I ”Denying to the Grave: Why We Ignore the Facts That Will Save Us” (Oxford) undersöker Jack Gorman, psykiater, och hans dotter Sara Gorman, folkhälsospecialist, klyftan mellan vad vetenskapen berättar för oss och vad vi berättar för oss själva. Deras intresse gäller de bestående övertygelser som inte bara är bevisligen falska utan också potentiellt dödliga, som t.ex. övertygelsen om att vacciner är farliga. Det som är farligt är naturligtvis att inte vaccinera sig. Det var därför vaccinerna skapades från början. ”Immunisering är en av den moderna medicinens triumfer”, konstaterar Gormans. Men oavsett hur många vetenskapliga studier som kommer fram till att vacciner är säkra och att det inte finns någon koppling mellan vaccinationer och autism, förblir antivaccinisterna orubbliga. (De kan nu räkna på sin sida – typ av – Donald Trump, som har sagt att även om han och hans fru lät vaccinera sin son Barron vägrade de att göra det enligt den tidtabell som rekommenderas av barnläkare.)
Gormans hävdar också att tankesätt som nu verkar självdestruktiva någon gång måste ha varit anpassningsbara. Och även de ägnar många sidor åt bekräftelsebias, som enligt dem har en fysiologisk komponent. De hänvisar till forskning som tyder på att människor upplever ett genuint nöje – ett dopaminrus – när de bearbetar information som stöder deras övertygelser. ”Det känns bra att ”hålla fast vid sin pistol” även om man har fel”, konstaterar de.
Gormans vill inte bara katalogisera de sätt på vilka vi gör fel; de vill korrigera för dem. Det måste finnas något sätt, hävdar de, att övertyga människor om att vacciner är bra för barn och att handeldvapen är farliga. (En annan utbredd men statistiskt ohållbar tro som de skulle vilja misskreditera är att det är säkrare att äga en pistol.) Men här stöter de på just de problem som de har räknat upp. Att förse människor med korrekt information verkar inte hjälpa; de ignorerar den helt enkelt. Att vädja till deras känslor kanske fungerar bättre, men det är uppenbart att detta strider mot målet att främja sund vetenskap. ”Den utmaning som återstår”, skriver de mot slutet av sin bok, ”är att ta reda på hur man ska ta itu med de tendenser som leder till falsk vetenskaplig tro.”
”The Enigma of Reason”, ”The Knowledge Illusion” och ”Denying to the Grave” skrevs alla före valet i november. Ändå föregriper de Kellyanne Conway och framväxten av ”alternativa fakta”. Dessa dagar kan det kännas som om hela landet har överlåtits till ett stort psykologiskt experiment som leds antingen av ingen eller av Steve Bannon. Rationella aktörer skulle kunna tänka sig fram till en lösning. Men i den här frågan är litteraturen inte betryggande. ♦