Nel 1975, i ricercatori di Stanford invitarono un gruppo di studenti a partecipare a uno studio sul suicidio. Furono presentate loro coppie di note di suicidio. In ogni coppia, una nota era stata composta da un individuo a caso, l’altra da una persona che si era successivamente tolta la vita. Agli studenti è stato poi chiesto di distinguere tra le note autentiche e quelle false.
Alcuni studenti hanno scoperto di avere un genio per questo compito. Su venticinque coppie di banconote, hanno identificato correttamente quella vera ventiquattro volte. Altri scoprirono di essere senza speranza. Identificarono la nota vera solo in dieci casi.
Come spesso accade negli studi psicologici, l’intera impostazione era una messa in scena. Anche se la metà delle note erano autentiche – erano state ottenute dall’ufficio del coroner della contea di Los Angeles – i punteggi erano fittizi. Gli studenti a cui era stato detto che avevano quasi sempre ragione non erano, in media, più perspicaci di quelli a cui era stato detto che avevano quasi sempre torto.
Nella seconda fase dello studio, l’inganno fu rivelato. Agli studenti fu detto che il vero scopo dell’esperimento era quello di valutare le loro risposte nel pensare di avere ragione o torto. (Infine, agli studenti è stato chiesto di stimare quante note di suicidio avevano effettivamente classificato correttamente e quante pensavano che uno studente medio avrebbe avuto ragione. A questo punto, è successo qualcosa di curioso. Gli studenti del gruppo ad alto punteggio hanno detto che pensavano di aver fatto, in effetti, abbastanza bene – significativamente meglio dello studente medio – anche se, come era stato appena detto loro, non avevano motivi per crederlo. Al contrario, coloro che erano stati assegnati al gruppo a basso punteggio hanno detto che pensavano di aver fatto significativamente peggio dello studente medio – una conclusione altrettanto infondata.
“Una volta formate”, hanno osservato seccamente i ricercatori, “le impressioni sono notevolmente perseveranti”
Alcuni anni dopo, un nuovo gruppo di studenti di Stanford è stato reclutato per uno studio collegato. Agli studenti furono consegnati pacchetti di informazioni su una coppia di vigili del fuoco, Frank K. e George H. La biografia di Frank diceva, tra le altre cose, che aveva una figlia piccola e gli piaceva fare immersioni. George aveva un figlio piccolo e giocava a golf. I pacchetti includevano anche le risposte degli uomini su quello che i ricercatori chiamavano il Test di Scelta Rischiosa-Conservatrice. Secondo una versione del pacchetto, Frank era un vigile del fuoco di successo che, nel test, sceglieva quasi sempre l’opzione più sicura. Nell’altra versione, Frank sceglieva anche l’opzione più sicura, ma era un pessimo pompiere che era stato messo “a rapporto” dai suoi supervisori diverse volte. Ancora una volta, a metà dello studio, gli studenti sono stati informati che erano stati ingannati e che le informazioni che avevano ricevuto erano completamente fittizie. Agli studenti fu poi chiesto di descrivere le loro convinzioni. Che tipo di atteggiamento verso il rischio pensavano che un vigile del fuoco di successo avrebbe avuto? Gli studenti che avevano ricevuto il primo pacchetto pensavano che l’avrebbe evitato. Gli studenti del secondo gruppo pensavano che l’avrebbe abbracciato.
Anche dopo che le prove “per le loro credenze sono state totalmente confutate, le persone non riescono a fare le opportune revisioni in quelle credenze”, hanno notato i ricercatori. In questo caso, il fallimento è stato “particolarmente impressionante”, dato che due punti di dati non sarebbero mai stati sufficienti per generalizzare.
Gli studi di Stanford sono diventati famosi. Venendo da un gruppo di accademici negli anni settanta, l’affermazione che la gente non può pensare in modo lineare era scioccante. Non lo è più. Migliaia di esperimenti successivi hanno confermato (ed elaborato) questa scoperta. Come chiunque abbia seguito la ricerca – o anche solo occasionalmente preso in mano una copia di Psychology Today – sa, qualsiasi studente laureato con una cartellina può dimostrare che le persone che sembrano ragionevoli sono spesso totalmente irrazionali. Raramente questa intuizione è sembrata più rilevante di adesso. Eppure, rimane un enigma essenziale: Come siamo diventati così?
In un nuovo libro, “L’enigma della ragione” (Harvard), gli scienziati cognitivi Hugo Mercier e Dan Sperber tentano di rispondere a questa domanda. Mercier, che lavora in un istituto di ricerca francese a Lione, e Sperber, ora con sede presso l’Università Centrale Europea, a Budapest, sottolineano che la ragione è un tratto evoluto, come il bipedalismo o la visione a tre colori. È emerso nelle savane dell’Africa, e deve essere compreso in quel contesto.
Spogliato di un sacco di ciò che potrebbe essere chiamato scienza cognitiva-ese, l’argomento di Mercier e Sperber corre, più o meno, come segue: Il più grande vantaggio degli esseri umani rispetto alle altre specie è la nostra capacità di cooperare. La cooperazione è difficile da stabilire e quasi altrettanto difficile da sostenere. Per qualsiasi individuo, lo scrocco è sempre la migliore linea d’azione. La ragione non si è sviluppata per permetterci di risolvere problemi astratti e logici e nemmeno per aiutarci a trarre conclusioni da dati non familiari; piuttosto, si è sviluppata per risolvere i problemi posti dal vivere in gruppi collaborativi.
“La ragione è un adattamento alla nicchia ipersociale che gli umani hanno evoluto per se stessi”, scrivono Mercier e Sperber. Abitudini mentali che sembrano strane o stupide o semplicemente stupide da un punto di vista “intellettualista” si rivelano astute se viste da una prospettiva sociale “interazionista”.
Considera quello che è diventato noto come “bias di conferma”, la tendenza delle persone ad abbracciare le informazioni che supportano le loro credenze e a rifiutare quelle che le contraddicono. Tra le molte forme di pensiero errato che sono state identificate, il bias di conferma è tra i meglio catalogati; è il soggetto di interi libri di testo di esperimenti. Uno dei più famosi è stato condotto, ancora una volta, a Stanford. Per questo esperimento, i ricercatori hanno radunato un gruppo di studenti che avevano opinioni opposte sulla pena capitale. Metà degli studenti erano a favore e pensavano che scoraggiasse il crimine; l’altra metà era contro e pensava che non avesse alcun effetto sul crimine.
Agli studenti fu chiesto di rispondere a due studi. Uno forniva dati a sostegno dell’argomento della deterrenza, e l’altro forniva dati che lo mettevano in discussione. Entrambi gli studi – avete indovinato – erano stati inventati, ed erano stati progettati per presentare quelle che erano, obiettivamente parlando, statistiche ugualmente convincenti. Gli studenti che avevano originariamente sostenuto la pena capitale hanno valutato i dati pro-deterrenza altamente credibili e i dati anti-deterrenza non convincenti; gli studenti che si erano originariamente opposti alla pena capitale hanno fatto il contrario. Alla fine dell’esperimento, agli studenti è stato chiesto ancora una volta il loro punto di vista. Quelli che erano partiti a favore della pena capitale erano ora ancora più favorevoli; quelli che si erano opposti erano ancora più ostili.
Se la ragione è progettata per generare giudizi validi, allora è difficile concepire un difetto di progettazione più grave del bias di conferma. Immaginate, suggeriscono Mercier e Sperber, un topo che pensa come noi. Un topo del genere, “impegnato a confermare la sua convinzione che non ci sono gatti in giro”, sarebbe presto la cena. Nella misura in cui il bias di conferma porta le persone a respingere le prove di minacce nuove o sottovalutate – l’equivalente umano del gatto dietro l’angolo – è un tratto che dovrebbe essere stato selezionato contro. Il fatto che sia noi che esso sopravviva, sostengono Mercier e Sperber, dimostra che deve avere una qualche funzione adattativa, e questa funzione, sostengono, è legata alla nostra “ipersocialità”
Mercier e Sperber preferiscono il termine “myside bias”. Gli esseri umani, sottolineano, non sono creduloni a caso. Quando ci viene presentata l’argomentazione di qualcun altro, siamo abbastanza abili nell’individuare le debolezze. Quasi invariabilmente, le posizioni su cui siamo ciechi sono le nostre.
Un recente esperimento eseguito da Mercier e alcuni colleghi europei dimostra chiaramente questa asimmetria. Ai partecipanti è stato chiesto di rispondere a una serie di semplici problemi di ragionamento. Poi è stato chiesto loro di spiegare le loro risposte, e hanno avuto la possibilità di modificarle se hanno individuato degli errori. La maggioranza era soddisfatta delle loro scelte originali; meno del quindici per cento ha cambiato idea nella fase due.
Nella fase tre, ai partecipanti è stato mostrato uno degli stessi problemi, insieme alla loro risposta e a quella di un altro partecipante, che era arrivato a una conclusione diversa. Ancora una volta, è stata data loro la possibilità di cambiare le loro risposte. Ma un trucco era stato giocato: le risposte presentate loro come quelle di qualcun altro erano in realtà le loro, e viceversa. Circa la metà dei partecipanti ha capito cosa stava succedendo. Tra l’altra metà, improvvisamente le persone sono diventate molto più critiche. Quasi il sessanta per cento ora rifiutava le risposte di cui erano stati soddisfatti in precedenza.
Questa asimmetria, secondo Mercier e Sperber, riflette il compito che la ragione si è evoluta a svolgere, cioè quello di impedire che veniamo fregati dagli altri membri del nostro gruppo. Vivendo in piccole bande di cacciatori-raccoglitori, i nostri antenati si preoccupavano principalmente della loro posizione sociale e di assicurarsi di non essere quelli che rischiavano la vita nella caccia mentre gli altri oziavano nella grotta. C’era poco vantaggio nel ragionare in modo chiaro, mentre c’era molto da guadagnare nel vincere le discussioni.
Tra le molte, molte questioni di cui i nostri antenati non si preoccupavano c’erano gli effetti deterrenti della pena capitale e gli attributi ideali di un vigile del fuoco. Né hanno dovuto fare i conti con studi inventati, o fake news, o Twitter. Non c’è da meravigliarsi, quindi, se oggi la ragione sembra spesso fallire. Come scrivono Mercier e Sperber, “Questo è uno dei tanti casi in cui l’ambiente è cambiato troppo rapidamente perché la selezione naturale potesse mettersi al passo.”
Steven Sloman, professore alla Brown, e Philip Fernbach, professore all’Università del Colorado, sono anche scienziati cognitivi. Anche loro credono che la socievolezza sia la chiave del funzionamento o, forse più pertinentemente, del malfunzionamento della mente umana. Iniziano il loro libro, “L’illusione della conoscenza: Perché non pensiamo mai da soli” (Riverhead), con uno sguardo ai gabinetti.
Quasi tutti negli Stati Uniti, e in tutto il mondo sviluppato, hanno familiarità con i gabinetti. Una tipica toilette a sciacquone ha una ciotola di ceramica riempita d’acqua. Quando si preme la maniglia o il pulsante, l’acqua – e tutto ciò che vi si è depositato – viene risucchiata in un tubo e da lì nel sistema fognario. Ma come avviene tutto questo?
In uno studio condotto a Yale, agli studenti laureati è stato chiesto di valutare la loro comprensione dei dispositivi di uso quotidiano, tra cui toilette, cerniere e serrature a cilindro. Poi è stato chiesto loro di scrivere spiegazioni dettagliate, passo dopo passo, su come funzionano i dispositivi, e di valutare nuovamente la loro comprensione. Apparentemente, lo sforzo ha rivelato agli studenti la loro ignoranza, perché le loro autovalutazioni sono calate. (I gabinetti, si scopre, sono più complicati di quello che sembrano.)
Sloman e Fernbach vedono questo effetto, che chiamano “l’illusione della profondità esplicativa”, quasi ovunque. La gente crede di sapere molto di più di quanto non sappia in realtà. Ciò che ci permette di persistere in questa convinzione sono le altre persone. Nel caso del mio gabinetto, qualcun altro lo ha progettato in modo che io possa usarlo facilmente. Questo è qualcosa in cui gli umani sono molto bravi. Ci affidiamo all’esperienza degli altri da quando abbiamo capito come cacciare insieme, il che è stato probabilmente uno sviluppo chiave nella nostra storia evolutiva. Collaboriamo così bene, sostengono Sloman e Fernbach, che difficilmente possiamo dire dove finisce la nostra comprensione e inizia quella degli altri.
“Un’implicazione della naturalezza con cui dividiamo il lavoro cognitivo”, scrivono, è che non c’è “un confine netto tra le idee e le conoscenze di una persona” e “quelle degli altri membri” del gruppo.
Questa mancanza di confini, o, se preferite, confusione, è anche cruciale per ciò che consideriamo progresso. Man mano che le persone inventavano nuovi strumenti per nuovi modi di vivere, creavano simultaneamente nuovi regni di ignoranza; se tutti avessero insistito, per esempio, nel padroneggiare i principi della lavorazione dei metalli prima di prendere in mano un coltello, l’età del bronzo non avrebbe significato molto. Quando si tratta di nuove tecnologie, la comprensione incompleta è potenziante.
Dove ci mette nei guai, secondo Sloman e Fernbach, è nel campo politico. Una cosa è tirare lo sciacquone senza sapere come funziona, un’altra è favorire (o opporsi) a un divieto di immigrazione senza sapere di cosa sto parlando. Sloman e Fernbach citano un sondaggio condotto nel 2014, non molto tempo dopo che la Russia ha annesso il territorio ucraino della Crimea. Agli intervistati è stato chiesto come pensavano che gli Stati Uniti dovessero reagire, e anche se potevano identificare l’Ucraina su una mappa. Più erano fuori strada sulla geografia, più erano favorevoli all’intervento militare. (Gli intervistati erano così incerti sull’ubicazione dell’Ucraina che l’ipotesi mediana era sbagliata di 1800 miglia, più o meno la distanza da Kiev a Madrid.)
I sondaggi su molte altre questioni hanno dato risultati altrettanto sconfortanti. “Di regola, i sentimenti forti sulle questioni non emergono dalla comprensione profonda”, scrivono Sloman e Fernbach. E qui la nostra dipendenza da altre menti rafforza il problema. Se la tua posizione su, diciamo, l’Affordable Care Act è infondata e io faccio affidamento su di essa, allora anche la mia opinione è infondata. Quando parlo con Tom e lui decide che è d’accordo con me, anche la sua opinione è priva di fondamento, ma ora che siamo tutti e tre d’accordo ci sentiamo molto più compiaciuti delle nostre opinioni. Se ora tutti noi respingiamo come non convincente qualsiasi informazione che contraddice la nostra opinione, si ottiene, beh, l’amministrazione Trump.
“Ecco come una comunità di conoscenza può diventare pericolosa”, osservano Sloman e Fernbach. I due hanno eseguito la loro versione dell’esperimento del gabinetto, sostituendo la politica pubblica con i gadget domestici. In uno studio condotto nel 2012, hanno chiesto alle persone la loro posizione su domande come: Dovrebbe esserci un sistema sanitario a pagamento unico? O una retribuzione basata sul merito per gli insegnanti? Ai partecipanti è stato chiesto di valutare le loro posizioni a seconda di quanto fossero d’accordo o meno con le proposte. Poi, sono stati istruiti a spiegare, nel modo più dettagliato possibile, l’impatto dell’implementazione di ciascuna proposta. La maggior parte delle persone a questo punto si è trovata in difficoltà. Richiesto ancora una volta di valutare le loro opinioni, hanno ridotto l’intensità, in modo da essere d’accordo o in disaccordo con meno veemenza.
Sloman e Fernbach vedono in questo risultato una piccola candela per un mondo buio. Se noi – o i nostri amici o gli esperti della CNN – passassimo meno tempo a pontificare e più a cercare di capire le implicazioni delle proposte politiche, ci renderemmo conto di quanto siamo ignoranti e modereremmo le nostre opinioni. Questo, scrivono, “può essere l’unica forma di pensiero che distruggerà l’illusione della profondità esplicativa e cambierà gli atteggiamenti delle persone”.”
Un modo di guardare alla scienza è come un sistema che corregge le inclinazioni naturali delle persone. In un laboratorio ben gestito, non c’è spazio per i miei pregiudizi; i risultati devono essere riproducibili in altri laboratori, da ricercatori che non hanno alcun motivo per confermarli. E questo, si potrebbe dire, è il motivo per cui il sistema ha avuto tanto successo. In un dato momento, un campo può essere dominato da battibecchi, ma, alla fine, la metodologia prevale. La scienza va avanti, anche se noi rimaniamo bloccati sul posto.
In “Negare fino alla tomba: Why We Ignore the Facts That Will Save Us” (Oxford), Jack Gorman, uno psichiatra, e sua figlia, Sara Gorman, una specialista di salute pubblica, sondano il divario tra ciò che la scienza ci dice e ciò che diciamo a noi stessi. La loro preoccupazione riguarda quelle credenze persistenti che non sono solo dimostrabilmente false ma anche potenzialmente mortali, come la convinzione che i vaccini siano pericolosi. Naturalmente, ciò che è pericoloso è non essere vaccinati; questo è il motivo per cui i vaccini sono stati creati in primo luogo. “L’immunizzazione è uno dei trionfi della medicina moderna”, notano i Gorman. Ma non importa quanti studi scientifici concludano che i vaccini sono sicuri, e che non c’è alcun legame tra le vaccinazioni e l’autismo, gli anti-vaxxers rimangono indifferenti. (Ora possono contare dalla loro parte – più o meno – su Donald Trump, che ha detto che, anche se lui e sua moglie hanno fatto vaccinare il loro figlio Barron, si sono rifiutati di farlo secondo il calendario raccomandato dai pediatri)
Anche i Gorman sostengono che modi di pensare che ora sembrano autodistruttivi devono a un certo punto essere stati adattivi. E anche loro dedicano molte pagine al bias di conferma, che, sostengono, ha una componente fisiologica. Citano ricerche che suggeriscono che le persone provano un piacere genuino – una scarica di dopamina – quando elaborano informazioni che supportano le loro credenze. “Ci si sente bene ad ‘attaccare le nostre pistole’ anche se ci sbagliamo”, osservano.
I Gorman non vogliono solo catalogare i modi in cui sbagliamo; vogliono correggerli. Ci deve essere un modo, sostengono, per convincere la gente che i vaccini sono buoni per i bambini, e le pistole sono pericolose. (Un’altra credenza diffusa ma statisticamente insopportabile che vorrebbero screditare è che possedere una pistola rende più sicuri). Ma qui incontrano proprio i problemi che hanno enumerato. Fornire alla gente informazioni accurate non sembra aiutare; semplicemente le ignorano. Fare appello alle loro emozioni può funzionare meglio, ma farlo è ovviamente antitetico all’obiettivo di promuovere la scienza sana. “La sfida che rimane”, scrivono verso la fine del loro libro, “è capire come affrontare le tendenze che portano a false credenze scientifiche.”
“L’enigma della ragione”, “L’illusione della conoscenza” e “Negare fino alla tomba” sono stati tutti scritti prima delle elezioni di novembre. Eppure anticipano Kellyanne Conway e l’ascesa dei “fatti alternativi”. In questi giorni, può sembrare che l’intero paese sia stato consegnato a un vasto esperimento psicologico gestito da nessuno o da Steve Bannon. Gli agenti razionali sarebbero in grado di pensare la loro strada verso una soluzione. Ma, su questo argomento, la letteratura non è rassicurante. ♦