Pourquoi les faits ne nous font pas changer d’avis

En 1975, des chercheurs de Stanford ont invité un groupe d’étudiants de premier cycle à participer à une étude sur le suicide. On leur a présenté des paires de notes de suicide. Dans chaque paire, une note avait été composée par un individu aléatoire, l’autre par une personne qui s’était ensuite suicidée. On a ensuite demandé aux étudiants de distinguer les notes authentiques des fausses.

Certains étudiants ont découvert qu’ils avaient un génie pour cette tâche. Sur vingt-cinq paires de billets, ils ont correctement identifié le vrai vingt-quatre fois. D’autres ont découvert qu’ils étaient sans espoir. Ils n’ont identifié la vraie note que dans dix cas.

Comme c’est souvent le cas dans les études psychologiques, toute la mise en place était une mise en scène. Bien que la moitié des notes étaient effectivement authentiques – elles avaient été obtenues auprès du bureau du coroner du comté de Los Angeles – les scores étaient fictifs. Les étudiants à qui l’on avait dit qu’ils avaient presque toujours raison n’étaient, en moyenne, pas plus perspicaces que ceux à qui l’on avait dit qu’ils avaient le plus souvent tort.

Dans la deuxième phase de l’étude, la supercherie a été révélée. On a dit aux étudiants que le but réel de l’expérience était d’évaluer leurs réactions lorsqu’ils pensaient avoir raison ou tort. (Enfin, on a demandé aux étudiants d’estimer le nombre de notes de suicide qu’ils avaient effectivement classées correctement et le nombre de notes qu’ils pensaient qu’un étudiant moyen aurait pu classer correctement. À ce stade, un phénomène curieux s’est produit. Les étudiants du groupe ayant obtenu le score le plus élevé ont déclaré qu’ils pensaient avoir, en fait, bien réussi – significativement mieux que l’étudiant moyen – même si, comme on venait de le leur dire, ils n’avaient aucune raison de le croire. À l’inverse, ceux qui avaient été assignés au groupe à faible score ont déclaré qu’ils pensaient avoir fait nettement moins bien que l’étudiant moyen – une conclusion tout aussi infondée.

Voir plus

« Une fois formées », ont observé sèchement les chercheurs, « les impressions sont remarquablement persévérantes. »

Quelques années plus tard, un nouvel ensemble d’étudiants de Stanford a été recruté pour une étude connexe. Les étudiants ont reçu des paquets d’informations sur un couple de pompiers, Frank K. et George H. La biographie de Frank indiquait, entre autres, qu’il avait une petite fille et qu’il aimait faire de la plongée sous-marine. George avait un petit garçon et jouait au golf. Les paquets contenaient également les réponses des hommes à ce que les chercheurs ont appelé le test de choix risqué-conservateur. Selon une version de la pochette, Frank était un pompier accompli qui, lors du test, choisissait presque toujours l’option la plus sûre. Dans l’autre version, Frank choisissait également l’option la plus sûre, mais il était un pompier médiocre qui avait été mis « au pied du mur » par ses supérieurs à plusieurs reprises. Une fois encore, au milieu de l’étude, les étudiants ont été informés qu’ils avaient été trompés et que les informations qu’ils avaient reçues étaient entièrement fictives. Les étudiants ont ensuite été invités à décrire leurs propres convictions. Quel type d’attitude à l’égard du risque pensaient-ils qu’un bon pompier devait avoir ? Les élèves qui avaient reçu le premier paquet pensaient qu’il l’éviterait. Les étudiants du deuxième groupe pensaient qu’il l’embrasserait.

Même après que les preuves « de leurs croyances ont été totalement réfutées, les gens ne parviennent pas à apporter les révisions appropriées à ces croyances », ont noté les chercheurs. Dans ce cas, l’échec était « particulièrement impressionnant », puisque deux points de données n’auraient jamais constitué une information suffisante pour généraliser.

Les études de Stanford sont devenues célèbres. Venant d’un groupe d’universitaires dans les années 1970, l’affirmation selon laquelle les gens ne peuvent pas penser correctement était choquante. Elle ne l’est plus aujourd’hui. Des milliers d’expériences ultérieures ont confirmé (et approfondi) ce constat. Comme le savent tous ceux qui ont suivi les recherches – ou qui ont même pris occasionnellement un exemplaire de Psychology Today -, n’importe quel étudiant diplômé muni d’un bloc-notes peut démontrer que des personnes apparemment raisonnables sont souvent totalement irrationnelles. Rarement cette constatation n’a semblé aussi pertinente qu’aujourd’hui. Pourtant, une énigme essentielle demeure : Comment en sommes-nous arrivés là ?

Dans un nouveau livre, « The Enigma of Reason » (Harvard), les spécialistes des sciences cognitives Hugo Mercier et Dan Sperber tentent de répondre à cette question. Mercier, qui travaille dans un institut de recherche français à Lyon, et Sperber, qui est maintenant basé à l’Université d’Europe centrale, à Budapest, soulignent que la raison est un trait évolué, comme la bipédie ou la vision en trois couleurs. Elle est apparue dans les savanes africaines et doit être comprise dans ce contexte.

Dépouillée de beaucoup de ce qu’on pourrait appeler le jargon des sciences cognitives, l’argument de Mercier et Sperber se présente plus ou moins comme suit : Le plus grand avantage des humains sur les autres espèces est notre capacité à coopérer. La coopération est difficile à établir et presque aussi difficile à maintenir. Pour tout individu, le parasitisme est toujours la meilleure ligne de conduite. La raison ne s’est pas développée pour nous permettre de résoudre des problèmes abstraits et logiques, ni même pour nous aider à tirer des conclusions à partir de données inconnues ; elle s’est plutôt développée pour résoudre les problèmes posés par la vie en groupes coopératifs.

« La raison est une adaptation à la niche hypersociale que les humains ont développée pour eux-mêmes », écrivent Mercier et Sperber. Des habitudes d’esprit qui semblent bizarres, loufoques ou tout simplement stupides d’un point de vue « intellectualiste » se révèlent astucieuses lorsqu’elles sont vues d’un point de vue social « interactionniste ».

Considérez ce qui est devenu connu sous le nom de « biais de confirmation », la tendance qu’ont les gens à embrasser les informations qui soutiennent leurs croyances et à rejeter celles qui les contredisent. Parmi les nombreuses formes de pensée erronée qui ont été identifiées, le biais de confirmation est l’un des mieux répertoriés ; il a fait l’objet d’expériences dans des manuels entiers. L’une des plus célèbres d’entre elles a été menée, là encore, à Stanford. Pour cette expérience, les chercheurs ont rassemblé un groupe d’étudiants qui avaient des opinions opposées sur la peine capitale. La moitié des étudiants y était favorable et pensait qu’elle dissuadait le crime ; l’autre moitié était contre et pensait qu’elle n’avait aucun effet sur le crime.

On a demandé aux étudiants de répondre à deux études. L’une fournissait des données à l’appui de l’argument de la dissuasion, et l’autre des données qui le remettaient en question. Les deux études – vous l’aurez deviné – étaient inventées, et avaient été conçues pour présenter ce qui était, objectivement parlant, des statistiques tout aussi convaincantes. Les étudiants qui avaient initialement soutenu la peine capitale ont jugé les données en faveur de la dissuasion très crédibles et les données contre la dissuasion peu convaincantes ; les étudiants qui s’étaient initialement opposés à la peine capitale ont fait l’inverse. À la fin de l’expérience, les étudiants ont été interrogés une nouvelle fois sur leurs opinions. Ceux qui avaient commencé par être favorables à la peine capitale y étaient maintenant encore plus favorables ; ceux qui s’y étaient opposés y étaient encore plus hostiles.

Si la raison est conçue pour générer des jugements sains, alors il est difficile de concevoir un défaut de conception plus sérieux que le biais de confirmation. Imaginez, suggèrent Mercier et Sperber, une souris qui pense comme nous. Une telle souris, « déterminée à confirmer sa croyance qu’il n’y a pas de chats dans les parages », serait bientôt le dîner. Dans la mesure où le biais de confirmation conduit les gens à rejeter les preuves de menaces nouvelles ou sous-estimées – l’équivalent humain du chat au coin de la rue – il s’agit d’un trait qui aurait dû être rejeté par la sélection. Le fait que nous et lui survivions, soutiennent Mercier et Sperber, prouve qu’il doit avoir une certaine fonction adaptative, et cette fonction, soutiennent-ils, est liée à notre « hypersociabilité ».

Mercier et Sperber préfèrent le terme « biais myside ». Les humains, soulignent-ils, ne sont pas crédules au hasard. Présentés avec l’argument de quelqu’un d’autre, nous sommes tout à fait aptes à repérer les faiblesses. Presque invariablement, les positions sur lesquelles nous sommes aveugles sont les nôtres.

Une expérience récente réalisée par Mercier et quelques collègues européens démontre clairement cette asymétrie. Les participants ont été invités à répondre à une série de problèmes de raisonnement simples. Ils ont ensuite été invités à expliquer leurs réponses, et ont eu la possibilité de les modifier s’ils identifiaient des erreurs. La majorité d’entre eux étaient satisfaits de leurs choix initiaux ; moins de quinze pour cent ont changé d’avis à l’étape deux.

À l’étape trois, les participants se sont vus présenter l’un des mêmes problèmes, ainsi que leur réponse et celle d’un autre participant, qui était arrivé à une conclusion différente. Une fois encore, ils ont eu la possibilité de modifier leurs réponses. Mais un tour de passe-passe avait été joué : les réponses qui leur étaient présentées comme étant celles d’un autre étaient en fait les leurs, et vice versa. Environ la moitié des participants ont compris ce qui se passait. Parmi l’autre moitié, les gens sont soudainement devenus beaucoup plus critiques. Près de soixante pour cent rejetaient désormais les réponses dont ils s’étaient auparavant satisfaits.

a20683
« Merci encore d’être venu – d’habitude, je trouve ces fêtes de bureau plutôt gênantes. »

Cette asymétrie, selon Mercier et Sperber, reflète la tâche pour laquelle la raison a évolué, à savoir nous empêcher de nous faire avoir par les autres membres de notre groupe. Vivant en petits groupes de chasseurs-cueilleurs, nos ancêtres se préoccupaient avant tout de leur statut social et de s’assurer qu’ils n’étaient pas ceux qui risquaient leur vie à la chasse pendant que d’autres traînaient dans la grotte. Il y avait peu d’avantages à raisonner clairement, alors qu’il y avait beaucoup à gagner à gagner des arguments.

Parmi les très nombreuses questions dont nos ancêtres ne se préoccupaient pas, il y avait les effets dissuasifs de la peine capitale et les attributs idéaux d’un pompier. Ils n’avaient pas non plus à faire face à des études fabriquées, à des fake news ou à Twitter. Il n’est donc pas étonnant qu’aujourd’hui la raison semble souvent nous faire défaut. Comme l’écrivent Mercier et Sperber, « C’est l’un des nombreux cas où l’environnement a changé trop rapidement pour que la sélection naturelle puisse le rattraper. »

Steven Sloman, professeur à Brown, et Philip Fernbach, professeur à l’université du Colorado, sont également des spécialistes des sciences cognitives. Ils pensent eux aussi que la sociabilité est la clé du fonctionnement de l’esprit humain ou, peut-être plus pertinemment, de ses dysfonctionnements. Ils commencent leur livre, « The Knowledge Illusion : Why We Never Think Alone » (Riverhead), par un regard sur les toilettes.

Presque tout le monde aux États-Unis, et même dans l’ensemble du monde développé, connaît les toilettes. Une toilette typique à chasse d’eau a une cuvette en céramique remplie d’eau. Lorsqu’on appuie sur la poignée, ou sur le bouton, l’eau – et tout ce qui s’y est déposé – est aspirée dans un tuyau et, de là, dans le système d’égouts. Mais comment cela se produit-il réellement ?

Dans une étude menée à Yale, on a demandé à des étudiants diplômés d’évaluer leur compréhension des dispositifs de tous les jours, y compris les toilettes, les fermetures éclair et les serrures à cylindre. On leur a ensuite demandé d’écrire des explications détaillées, étape par étape, sur le fonctionnement de ces dispositifs, puis d’évaluer à nouveau leur compréhension. Apparemment, cet effort a révélé aux élèves leur propre ignorance, car leurs auto-évaluations ont chuté. (Il s’avère que les toilettes sont plus compliquées qu’il n’y paraît.)

Sloman et Fernbach constatent cet effet, qu’ils appellent « l’illusion de la profondeur explicative », un peu partout. Les gens croient qu’ils en savent beaucoup plus qu’ils n’en savent réellement. Ce qui nous permet de persister dans cette croyance, ce sont les autres personnes. Dans le cas de mes toilettes, quelqu’un d’autre les a conçues pour que je puisse les utiliser facilement. C’est une chose pour laquelle les humains sont très doués. Nous comptons sur l’expertise des autres depuis que nous avons compris comment chasser ensemble, ce qui a probablement été un développement clé dans notre histoire évolutive. Nous collaborons si bien, soutiennent Sloman et Fernbach, que nous pouvons difficilement dire où notre propre compréhension se termine et où celle des autres commence.

« Une implication de la naturalité avec laquelle nous divisons le travail cognitif », écrivent-ils, est qu’il n’y a « pas de frontière nette entre les idées et les connaissances d’une personne » et « celles des autres membres » du groupe.

Cette absence de frontière, ou, si vous préférez, cette confusion, est également cruciale pour ce que nous considérons comme le progrès. Lorsque les gens ont inventé de nouveaux outils pour de nouvelles façons de vivre, ils ont simultanément créé de nouveaux domaines d’ignorance ; si tout le monde avait insisté pour, disons, maîtriser les principes de la métallurgie avant de prendre un couteau, l’âge du bronze n’aurait pas représenté grand-chose. Lorsqu’il s’agit de nouvelles technologies, une compréhension incomplète donne du pouvoir.

Là où cela nous met en difficulté, selon Sloman et Fernbach, c’est dans le domaine politique. C’est une chose pour moi de tirer la chasse d’eau sans savoir comment elle fonctionne, et une autre pour moi de favoriser (ou de m’opposer) à une interdiction d’immigration sans savoir de quoi je parle. Sloman et Fernbach citent une enquête réalisée en 2014, peu de temps après l’annexion par la Russie du territoire ukrainien de la Crimée. On a demandé aux personnes interrogées comment elles pensaient que les États-Unis devaient réagir, et aussi si elles pouvaient identifier l’Ukraine sur une carte. Plus ils étaient éloignés de la géographie, plus ils étaient susceptibles de favoriser une intervention militaire. (Les personnes interrogées étaient si peu sûres de l’emplacement de l’Ukraine que la supposition médiane était fausse de dix-huit cents miles, soit à peu près la distance entre Kiev et Madrid.)

Des sondages sur de nombreuses autres questions ont donné des résultats tout aussi consternants. « En règle générale, les sentiments forts sur les questions n’émergent pas d’une compréhension profonde », écrivent Sloman et Fernbach. Et ici, notre dépendance à l’égard des autres esprits renforce le problème. Si votre position sur, par exemple, la loi sur les soins abordables est sans fondement et que je m’y fie, alors mon opinion est également sans fondement. Lorsque je parle à Tom et qu’il décide d’être d’accord avec moi, son opinion est également sans fondement, mais maintenant que nous sommes tous les trois d’accord, nous nous sentons d’autant plus sûrs de nos opinions. Si nous rejetons tous maintenant comme non convaincantes toutes les informations qui contredisent notre opinion, vous obtenez, eh bien, l’administration Trump.

« Voilà comment une communauté de connaissances peut devenir dangereuse », observent Sloman et Fernbach. Les deux hommes ont réalisé leur propre version de l’expérience des toilettes, en substituant les politiques publiques aux gadgets domestiques. Dans une étude menée en 2012, ils ont demandé aux gens leur position sur des questions telles que : Devrait-il y avoir un système de soins de santé à payeur unique ? Ou un salaire au mérite pour les enseignants ? Les participants ont été invités à évaluer leur position en fonction de leur degré d’accord ou de désaccord avec les propositions. Ensuite, ils devaient expliquer, de manière aussi détaillée que possible, les conséquences de la mise en œuvre de chacune d’entre elles. À ce stade, la plupart des personnes ont rencontré des difficultés. Lorsqu’on leur demandait à nouveau d’évaluer leur point de vue, ils diminuaient l’intensité de leur opinion, de sorte qu’ils étaient soit d’accord, soit en désaccord avec moins de véhémence.

Sloman et Fernbach voient dans ce résultat une petite bougie pour un monde sombre. Si nous – ou nos amis ou les experts de CNN – passions moins de temps à pontifier et plus à essayer de travailler sur les implications des propositions politiques, nous réaliserions à quel point nous sommes désemparés et modérerions nos opinions. Ceci, écrivent-ils, « pourrait être la seule forme de pensée qui brisera l’illusion de la profondeur explicative et changera les attitudes des gens. »

Une façon de voir la science est un système qui corrige les inclinations naturelles des gens. Dans un laboratoire bien géré, il n’y a pas de place pour les préjugés personnels ; les résultats doivent être reproductibles dans d’autres laboratoires, par des chercheurs qui n’ont aucune raison de les confirmer. Et c’est, pourrait-on dire, la raison pour laquelle le système a connu un tel succès. À un moment donné, un domaine peut être dominé par des querelles, mais, en fin de compte, la méthodologie prévaut. La science avance, même si nous restons bloqués sur place.

Dans « Nier jusqu’au tombeau : Why We Ignore the Facts That Will Save Us » (Oxford), Jack Gorman, un psychiatre, et sa fille, Sara Gorman, une spécialiste de la santé publique, sondent le fossé entre ce que la science nous dit et ce que nous nous disons. Ils s’intéressent à ces croyances persistantes qui sont non seulement manifestement fausses mais aussi potentiellement mortelles, comme la conviction que les vaccins sont dangereux. Bien sûr, ce qui est dangereux, c’est de ne pas être vacciné ; c’est pourquoi les vaccins ont été créés en premier lieu. « L’immunisation est l’un des triomphes de la médecine moderne », notent les Gorman. Mais peu importe le nombre d’études scientifiques qui concluent que les vaccins sont sûrs et qu’il n’y a pas de lien entre les vaccinations et l’autisme, les anti-vaxxers restent impassibles. (Ils peuvent maintenant compter de leur côté – en quelque sorte – Donald Trump, qui a déclaré que, bien que lui et sa femme aient fait vacciner leur fils, Barron, ils ont refusé de le faire selon le calendrier recommandé par les pédiatres.)

Les Gormans, eux aussi, soutiennent que les modes de pensée qui semblent aujourd’hui autodestructeurs ont dû, à un moment donné, être adaptatifs. Et eux aussi consacrent de nombreuses pages au biais de confirmation, qui, selon eux, a une composante physiologique. Ils citent des recherches suggérant que les gens éprouvent un véritable plaisir – une poussée de dopamine – lorsqu’ils traitent des informations qui confirment leurs croyances. « Cela fait du bien de ‘rester sur nos positions’ même si nous avons tort », observent-ils.

Les Gormans ne veulent pas seulement cataloguer les façons dont nous nous trompons ; ils veulent les corriger. Il doit y avoir un moyen, soutiennent-ils, de convaincre les gens que les vaccins sont bons pour les enfants, et que les armes de poing sont dangereuses. (Une autre croyance répandue mais statistiquement insupportable qu’ils aimeraient discréditer est que posséder une arme à feu vous rend plus sûr). Mais ils rencontrent ici les problèmes mêmes qu’ils ont énumérés. Fournir aux gens des informations exactes ne semble pas les aider ; ils les ignorent tout simplement. Faire appel à leurs émotions est peut-être plus efficace, mais cela va à l’encontre de l’objectif de promotion d’une science solide. « Le défi qui reste », écrivent-ils vers la fin de leur livre, « est de trouver comment aborder les tendances qui conduisent à une fausse croyance scientifique. »

« L’énigme de la raison », « L’illusion de la connaissance » et « Nier jusqu’au tombeau » ont tous été écrits avant l’élection de novembre. Et pourtant, ils anticipent Kellyanne Conway et la montée des « faits alternatifs ». Ces jours-ci, on peut avoir l’impression que le pays tout entier a été livré à une vaste expérience psychologique dirigée soit par personne, soit par Steve Bannon. Des agents rationnels seraient capables de réfléchir à une solution. Mais, en la matière, la littérature n’est pas rassurante. ♦

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée.