W 1975 roku naukowcy ze Stanford zaprosili grupę studentów do wzięcia udziału w badaniu na temat samobójstw. Przedstawiono im pary listów samobójczych. W każdej parze jedna notatka była napisana przez przypadkową osobę, a druga przez osobę, która później odebrała sobie życie. Studenci zostali następnie poproszeni o odróżnienie autentycznych notatek od fałszywych.
Niektórzy studenci odkryli, że mają geniusz do tego zadania. Na dwadzieścia pięć par banknotów, poprawnie zidentyfikowali prawdziwy banknot dwadzieścia cztery razy. Inni odkryli, że są beznadziejni. Zidentyfikowali prawdziwą nutę tylko w dziesięciu przypadkach.
Jak to często bywa w przypadku badań psychologicznych, cała konfiguracja była ukartowana. Chociaż połowa notatek była rzeczywiście prawdziwa – uzyskano je z biura koronera hrabstwa Los Angeles – wyniki były fikcyjne. Studenci, którym powiedziano, że prawie zawsze mają rację, średnio nie byli bardziej roztropni niż ci, którym powiedziano, że przeważnie się mylą.
W drugiej fazie badania oszustwo zostało ujawnione. Studentom powiedziano, że prawdziwym celem eksperymentu było zmierzenie ich reakcji na myślenie, że mają rację lub się mylą. (To, jak się okazało, również było oszustwem.) Wreszcie, studenci zostali poproszeni o oszacowanie, ile notatek o samobójstwie faktycznie skategoryzowali poprawnie, a ile ich zdaniem przeciętny student miałby rację. W tym momencie stało się coś ciekawego. Studenci z grupy z wysokimi wynikami mówili, że uważają, iż w rzeczywistości poszło im całkiem dobrze – znacząco lepiej niż przeciętnemu studentowi – mimo że, jak im właśnie powiedziano, nie mieli żadnych podstaw, by w to wierzyć. I odwrotnie, ci, którzy zostali przydzieleni do grupy z niskimi wynikami, powiedzieli, że myśleli, iż poszło im znacznie gorzej niż przeciętnemu studentowi – wniosek, który był równie bezpodstawny.
„Raz ukształtowane”, zauważyli sucho badacze, „wrażenia są niezwykle trwałe.”
Kilka lat później, nowy zestaw studentów Stanforda został zrekrutowany do podobnego badania. Studenci otrzymali pakiety informacji o parze strażaków, Franku K. i George’u H. W biogramie Franka odnotowano, że, między innymi, miał małą córeczkę i lubił nurkować. George miał małego syna i grał w golfa. Pakiety zawierały również odpowiedzi mężczyzn na pytanie, które badacze nazwali Testem Ryzykownego-Konserwatywnego Wyboru. Zgodnie z jedną wersją pakietu, Frank był odnoszącym sukcesy strażakiem, który w teście prawie zawsze wybierał najbezpieczniejszą opcję. W innej wersji, Frank również wybierał najbezpieczniejszą opcję, ale był kiepskim strażakiem, który kilka razy został „ukarany” przez swoich przełożonych. Po raz kolejny, w połowie badania, studenci zostali poinformowani, że zostali wprowadzeni w błąd, a informacje, które otrzymali, były całkowicie fikcyjne. Następnie studenci zostali poproszeni o opisanie swoich własnych przekonań. Jaką postawę wobec ryzyka ich zdaniem powinien mieć skuteczny strażak? Studenci, którzy otrzymali pierwszy pakiet uważali, że będzie go unikał. Studenci z drugiej grupy uważali, że będzie je podejmował.
Nawet po tym jak dowody „na ich przekonania zostały całkowicie obalone, ludzie nie dokonują odpowiednich zmian w tych przekonaniach,” zauważyli badacze. W tym przypadku, porażka była „szczególnie imponująca”, ponieważ dwa punkty danych nigdy nie byłyby wystarczającą informacją do generalizacji.
Stanfordzkie badania stały się sławne. Pochodzące od grupy naukowców w latach siedemdziesiątych twierdzenie, że ludzie nie potrafią myśleć prosto, było szokujące. Teraz ju” nie jest. Tysiące późniejszych eksperymentów potwierdziło (i rozwinęło) to odkrycie. Jak wie każdy, kto śledził badania – lub nawet od czasu do czasu sięgnął po egzemplarz „Psychology Today” – każdy student z notatnikiem może wykazać, że rozsądnie wyglądający ludzie są często całkowicie irracjonalni. Rzadko kiedy to spostrzeżenie wydaje się bardziej aktualne niż teraz. Wciąż jednak pozostaje zasadnicza zagadka: Jak doszliśmy do tego, że jesteśmy tacy?
W nowej książce, „The Enigma of Reason” (Harvard), kognitywiści Hugo Mercier i Dan Sperber podejmują próbę odpowiedzi na to pytanie. Mercier, który pracuje we francuskim instytucie badawczym w Lyonie, i Sperber, obecnie pracujący na Uniwersytecie Środkowoeuropejskim w Budapeszcie, zwracają uwagę, że rozum jest cechą wyewoluowaną, podobnie jak dwunożność czy trójkolorowe widzenie. Pojawił się na sawannach Afryki, i musi być rozumiany w tym kontekście.
Odarte z wielu, co może być nazywane cognitive-science-ese, Mercier i Sperber argument biegnie, mniej więcej, jak następuje: Największą przewagą ludzi nad innymi gatunkami jest nasza zdolność do współdziałania. Współdziałanie jest trudne do ustanowienia i prawie tak samo trudne do utrzymania. Dla każdej jednostki najlepszym wyjściem z sytuacji jest zawsze ucieczka na własną rękę. Rozum nie rozwinął się po to, by umożliwić nam rozwiązywanie abstrakcyjnych, logicznych problemów, ani nawet po to, by pomóc nam wyciągać wnioski z nieznanych danych; rozwinął się raczej po to, by rozwiązać problemy, jakie stwarza życie w grupach opartych na współpracy.
„Rozum jest adaptacją do hipersocjalnej niszy, jaką ludzie sobie wyewoluowali” – piszą Mercier i Sperber. Nawyki umysłu, które z „intelektualistycznego” punktu widzenia wydają się dziwne, głupie lub po prostu głupie, okazują się sprytne, gdy spojrzeć na nie z perspektywy społecznego „interakcjonisty”.
Rozważmy to, co stało się znane jako „tendencja do potwierdzania”, czyli skłonność ludzi do przyjmowania informacji, które wspierają ich przekonania i odrzucania tych, które im przeczą. Spośród wielu form błędnego myślenia, które zostały zidentyfikowane, tendencja do potwierdzania jest jedną z najlepiej skatalogowanych; jest ona przedmiotem całych podręczników eksperymentów. Jeden z najsłynniejszych z nich został przeprowadzony, ponownie, w Stanford. W tym eksperymencie badacze zebrali grupę studentów, którzy mieli przeciwstawne opinie na temat kary śmierci. Połowa studentów była za nią i uważała, że odstrasza ona od przestępczości; druga połowa była przeciwna i uważała, że nie ma ona wpływu na przestępczość.
Studenci zostali poproszeni o ustosunkowanie się do dwóch badań. Jedno z nich dostarczyło danych na poparcie tezy o odstraszaniu, a drugie – danych, które ją podważały. Oba badania – zgadłeś – były zmyślone i zostały zaprojektowane tak, aby przedstawić, obiektywnie rzecz biorąc, równie przekonujące statystyki. Studenci, którzy pierwotnie popierali karę śmierci, ocenili dane za odstraszaniem jako wysoce wiarygodne, a dane przeciw odstraszaniu jako nieprzekonujące; studenci, którzy pierwotnie sprzeciwiali się karze śmierci, postąpili odwrotnie. Na koniec eksperymentu studenci zostali jeszcze raz zapytani o swoje poglądy. Ci, którzy na początku byli za karą śmierci, teraz jeszcze bardziej ją popierali; ci, którzy się jej sprzeciwiali, byli jeszcze bardziej wrogo nastawieni.
Jeśli rozum jest zaprojektowany tak, by generować rozsądne sądy, to trudno sobie wyobrazić poważniejszą wadę projektu niż uprzedzenie konfirmacyjne. Wyobraźmy sobie, sugerują Mercier i Sperber, mysz, która myśli tak jak my. Taka mysz, „skora do utwierdzania się w przekonaniu, że w pobliżu nie ma kotów”, szybko stałaby się obiadem. W stopniu, w jakim tendencja do potwierdzania prowadzi ludzi do odrzucania dowodów na istnienie nowych lub niedocenianych zagrożeń – ludzkiego odpowiednika kota za rogiem – jest to cecha, która powinna być odrzucana. Fakt, że zarówno my, jak i on przetrwaliśmy, argumentują Mercier i Sperber, dowodzi, że musi on mieć jakąś funkcję adaptacyjną, a ta funkcja, jak utrzymują, jest związana z naszą „hipersocjalnością.”
Mercier i Sperber wolą termin „myside bias”. Ludzie, jak zauważają, nie są przypadkowo łatwowierni. Przedstawiając czyjąś argumentację, jesteśmy całkiem sprawni w dostrzeganiu jej słabych punktów. Prawie niezmiennie, pozycje, na które jesteśmy ślepi, są naszymi własnymi.
Dawny eksperyment przeprowadzony przez Merciera i kilku europejskich kolegów zgrabnie demonstruje tę asymetrię. Uczestnicy zostali poproszeni o udzielenie odpowiedzi na serię prostych problemów związanych z rozumowaniem. Następnie poproszono ich o wyjaśnienie swoich odpowiedzi i dano im szansę zmodyfikowania ich, jeśli zidentyfikowali błędy. Większość była zadowolona ze swoich pierwotnych wyborów; mniej niż piętnaście procent zmieniło zdanie w kroku drugim.
W kroku trzecim uczestnikom pokazano jeden z tych samych problemów, wraz z ich odpowiedzią i odpowiedzią innego uczestnika, który doszedł do innego wniosku. Po raz kolejny dano im szansę na zmianę odpowiedzi. Ale zastosowano sztuczkę: odpowiedzi przedstawione im jako cudze były w rzeczywistości ich własnymi, i odwrotnie. Mniej więcej połowa uczestników zdała sobie sprawę z tego, co się dzieje. Wśród drugiej połowy, nagle ludzie stali się o wiele bardziej krytyczni. Prawie sześćdziesiąt procent odrzuciło teraz odpowiedzi, z których wcześniej byli zadowoleni.
Ta nierówność, według Merciera i Sperbera, odzwierciedla zadanie, do którego wykonania ewoluował rozum, czyli zapobieganie wkręcaniu nas przez innych członków naszej grupy. Żyjąc w małych grupach łowców-zbieraczy, nasi przodkowie byli przede wszystkim zainteresowani swoją pozycją społeczną i upewnianiem się, że to nie oni ryzykują życie na polowaniu, podczas gdy inni buszują w jaskini. Niewiele było korzyści z jasnego rozumowania, natomiast wiele można było zyskać na wygrywaniu argumentów.
Wśród wielu, wielu kwestii, o które nie martwili się nasi przodkowie, były odstraszające efekty kary śmierci i idealne atrybuty strażaka. Nie musieli też zmagać się z sfabrykowanymi badaniami, fałszywymi wiadomościami czy Twitterem. Nic więc dziwnego, że dziś rozum często zdaje się nas zawodzić. Jak piszą Mercier i Sperber, „To jeden z wielu przypadków, w których środowisko zmieniło się zbyt szybko, by selekcja naturalna mogła nadążyć.”
Steven Sloman, profesor na Brown, i Philip Fernbach, profesor na University of Colorado, są również kognitywistami. Oni również uważają, że towarzyskość jest kluczem do tego, jak funkcjonuje ludzki umysł lub, co może bardziej trafne, jak źle funkcjonuje. Rozpoczynają swoją książkę, „Iluzja wiedzy: Why We Never Think Alone” (Riverhead), od spojrzenia na toalety.
Praktycznie każdy w Stanach Zjednoczonych, i rzeczywiście w całym rozwiniętym świecie, jest zaznajomiony z toaletami. Typowa toaleta spłukiwana ma ceramiczną miskę wypełnioną wodą. Po naciśnięciu klamki lub przycisku, woda – i wszystko, co się w niej znajduje – zostaje wessana do rury, a stamtąd do systemu kanalizacyjnego. Ale jak to się właściwie dzieje?
W badaniu przeprowadzonym w Yale studenci zostali poproszeni o ocenę swojego zrozumienia urządzeń codziennego użytku, w tym toalet, suwaków i zamków bębenkowych. Następnie poproszono ich o napisanie szczegółowych wyjaśnień, krok po kroku, jak te urządzenia działają, i ponowne ocenienie ich zrozumienia. Najwyraźniej wysiłek ten ujawnił studentom ich własną niewiedzę, ponieważ ich samoocena spadła. (Toalety, jak się okazuje, są bardziej skomplikowane niż się wydaje.)
Sloman i Fernbach widzą ten efekt, który nazywają „iluzją wyjaśniającej głębi”, mniej więcej wszędzie. Ludzie wierzą, że wiedzą znacznie więcej niż w rzeczywistości. Tym, co pozwala nam trwać w tym przekonaniu, są inni ludzie. W przypadku mojej toalety, ktoś inny zaprojektował ją tak, żebym mógł ją łatwo obsługiwać. Jest to coś, w czym ludzie są bardzo dobrzy. Polegamy na wzajemnej wiedzy, odkąd odkryliśmy, jak wspólnie polować, co było prawdopodobnie kluczowym wydarzeniem w naszej ewolucyjnej historii. Sloman i Fernbach twierdzą, że współpracujemy tak dobrze, że z trudem potrafimy określić, gdzie kończy się nasze własne rozumienie, a zaczyna rozumienie innych.
„Jedną z konsekwencji naturalności, z jaką dzielimy pracę poznawczą”, piszą, jest to, że „nie ma ostrej granicy między pomysłami i wiedzą jednej osoby” a „pomysłami i wiedzą innych członków” grupy.
Ten brak granic, lub, jeśli wolisz, zamieszanie, jest również kluczowy dla tego, co uważamy za postęp. Gdy ludzie wymyślali nowe narzędzia dla nowych sposobów życia, jednocześnie tworzyli nowe obszary niewiedzy; gdyby każdy nalegał na, powiedzmy, opanowanie zasad obróbki metalu przed wzięciem do ręki noża, epoka brązu niewiele by znaczyła. Jeśli chodzi o nowe technologie, niekompletne zrozumienie jest wzmacniające.
Tam, gdzie, według Slomana i Fernbacha, wpędza nas to w kłopoty, znajduje się domena polityczna. Jedną rzeczą jest dla mnie spłukiwanie toalety bez wiedzy o tym, jak ona działa, a inną popieranie (lub sprzeciwianie się) zakazu imigracji bez wiedzy o czym mówię. Sloman i Fernbach przytaczają sondaż przeprowadzony w 2014 roku, niedługo po tym, jak Rosja zaanektowała ukraińskie terytorium Krymu. Respondenci zostali zapytani, jak ich zdaniem powinny zareagować Stany Zjednoczone, a także czy potrafią zidentyfikować Ukrainę na mapie. Im bardziej mylili się co do geografii, tym bardziej byli skłonni poprzeć interwencję militarną. (Respondenci byli tak niepewni położenia Ukrainy, że mediana błędnych odpowiedzi wynosiła osiemnaście setek mil, czyli mniej więcej tyle, ile wynosi odległość z Kijowa do Madrytu.)
Sondaże dotyczące wielu innych kwestii przyniosły podobnie przygnębiające wyniki. „Z reguły silne uczucia dotyczące spraw nie wynikają z głębokiego zrozumienia” – piszą Sloman i Fernbach. I tutaj nasza zależność od innych umysłów wzmacnia problem. Jeśli twoje stanowisko w sprawie, powiedzmy, Affordable Care Act jest bezpodstawne, a ja na nim polegam, to moja opinia też jest bezpodstawna. Kiedy rozmawiam z Tomkiem i on decyduje, że się ze mną zgadza, jego opinia również jest bezpodstawna, ale teraz, kiedy wszyscy trzej się zgadzamy, czujemy się o wiele bardziej pewni swoich poglądów. Jeśli teraz wszyscy odrzucimy jako nieprzekonujące wszelkie informacje, które są sprzeczne z naszą opinią, otrzymamy, cóż, administrację Trumpa.
„W ten sposób wspólnota wiedzy może stać się niebezpieczna” – zauważają Sloman i Fernbach. Ci dwaj przeprowadzili własną wersję eksperymentu toaletowego, zastępując politykę publiczną gadżetami domowymi. W badaniu przeprowadzonym w 2012 r. pytali ludzi o ich stanowisko na takie pytania jak: Czy powinien istnieć system opieki zdrowotnej typu single-payer? Czy też wynagrodzenie dla nauczycieli oparte na zasługach? Uczestnicy zostali poproszeni o ocenę swojego stanowiska w zależności od tego, jak bardzo zgadzają się lub nie zgadzają z tymi propozycjami. Następnie poproszono ich o wyjaśnienie, na tyle szczegółowo, na ile potrafili, skutków wprowadzenia każdej z nich w życie. W tym momencie większość osób wpadła w kłopoty. Poproszeni po raz kolejny o ocenę swoich poglądów, zmniejszali intensywność, tak że albo zgadzali się, albo nie zgadzali się mniej zdecydowanie.
Sloman i Fernbach widzą w tym wyniku małą świeczkę dla ciemnego świata. Gdybyśmy my – albo nasi przyjaciele, albo pundity z CNN – spędzali mniej czasu na pontyfikowaniu, a więcej na próbach przeanalizowania implikacji propozycji politycznych, zdalibyśmy sobie sprawę z tego, jak bardzo nie mamy pojęcia i złagodzilibyśmy nasze poglądy. To, jak piszą, „może być jedyna forma myślenia, która rozbije iluzję wyjaśniającej głębi i zmieni ludzkie postawy.”
Jednym ze sposobów patrzenia na naukę jest system, który koryguje naturalne skłonności ludzi. W dobrze zarządzanym laboratorium nie ma miejsca na stronniczość z mojej strony; wyniki muszą być powtarzalne w innych laboratoriach, przez badaczy, którzy nie mają motywu, by je potwierdzić. I właśnie dlatego, jak można sądzić, system ten okazał się tak skuteczny. W każdej chwili dana dziedzina może być zdominowana przez spory, ale w końcu metodologia zwycięża. Nauka posuwa się naprzód, nawet gdy my tkwimy w miejscu.
W „Denying to the Grave: Why We Ignore the Facts That Will Save Us” (Oxford), Jack Gorman, psychiatra, i jego córka, Sara Gorman, specjalistka od zdrowia publicznego, badają lukę między tym, co mówi nam nauka, a tym, co sami sobie wmawiamy. Zajmują się tymi uporczywymi przekonaniami, które są nie tylko ewidentnie fałszywe, ale także potencjalnie śmiertelnie niebezpieczne, jak przekonanie, że szczepionki są niebezpieczne. Oczywiście, niebezpieczne jest to, że się nie szczepimy; po to właśnie szczepionki zostały stworzone. „Immunizacja jest jednym z triumfów współczesnej medycyny” – zauważają Gormanowie. Jednak bez względu na to, jak wiele badań naukowych potwierdzi, że szczepionki są bezpieczne i że nie ma związku między szczepieniami a autyzmem, antyszczepionkowcy pozostają niewzruszeni. (Mogą teraz liczyć po swojej stronie – poniekąd – Donalda Trumpa, który powiedział, że chociaż on i jego żona zaszczepili swojego syna Barrona, odmówili zrobienia tego zgodnie z harmonogramem zalecanym przez pediatrów.)
Gormanowie również twierdzą, że sposoby myślenia, które teraz wydają się autodestrukcyjne, w pewnym momencie musiały być adaptacyjne. I oni również poświęcają wiele stron tendencyjności potwierdzającej, która, jak twierdzą, ma komponent fizjologiczny. Przytaczają badania sugerujące, że ludzie doświadczają prawdziwej przyjemności – przypływu dopaminy – kiedy przetwarzają informacje, które potwierdzają ich przekonania. „To miłe uczucie 'trzymać się naszych broni’, nawet jeśli się mylimy”, zauważają.
Gormanowie nie chcą tylko skatalogować sposoby, w jakie się mylimy; chcą je poprawić. Twierdzą, że musi być jakiś sposób, aby przekonać ludzi, że szczepionki są dobre dla dzieci, a broń ręczna jest niebezpieczna. (Innym powszechnym, ale statystycznie nieuzasadnionym przekonaniem, które chcieliby zdyskredytować, jest to, że posiadanie broni czyni cię bezpieczniejszym). Ale tutaj napotykają na same problemy, które wyliczyli. Dostarczanie ludziom rzetelnych informacji nie wydaje się pomagać; oni po prostu je lekceważą. Odwołanie się do ich emocji może działać lepiej, ale jest to oczywiście sprzeczne z celem promowania rzetelnej nauki. „Wyzwanie, które pozostaje”, piszą pod koniec swojej książki, „to dowiedzieć się, jak zająć się tendencjami, które prowadzą do fałszywych przekonań naukowych.”
„The Enigma of Reason,” „The Knowledge Illusion,” i „Denying to the Grave” zostały napisane przed listopadowymi wyborami. A jednak przewidują one Kellyanne Conway i wzrost „alternatywnych faktów”. W dzisiejszych czasach można odnieść wrażenie, że cały kraj został poddany ogromnemu eksperymentowi psychologicznemu prowadzonemu albo przez nikogo, albo przez Steve’a Bannona. Racjonalni agenci byliby w stanie wymyślić drogę do rozwiązania. Ale w tej sprawie literatura nie jest uspokajająca. ♦