Por qué los hechos no nos hacen cambiar de opinión

En 1975, unos investigadores de Stanford invitaron a un grupo de estudiantes universitarios a participar en un estudio sobre el suicidio. Se les presentaron pares de notas de suicidio. En cada par, una nota había sido compuesta por un individuo al azar, y la otra por una persona que posteriormente se había quitado la vida. Se pidió a los estudiantes que distinguieran entre las notas auténticas y las falsas.

Algunos estudiantes descubrieron que tenían un genio para la tarea. De veinticinco pares de billetes, identificaron correctamente el auténtico veinticuatro veces. Otros descubrieron que no tenían remedio. Sólo identificaron la nota real en diez ocasiones.

Como suele ocurrir con los estudios psicológicos, todo el montaje era un montaje. Aunque la mitad de las notas eran auténticas -se habían obtenido de la oficina del forense del condado de Los Ángeles-, las puntuaciones eran ficticias. Los estudiantes a los que se les había dicho que casi siempre tenían razón no eran, en promedio, más perspicaces que aquellos a los que se les había dicho que estaban casi siempre equivocados.

En la segunda fase del estudio, se reveló el engaño. Se les dijo a los estudiantes que el verdadero objetivo del experimento era medir sus respuestas al pensar que estaban bien o mal. (Esto, resultó ser también un engaño.) Finalmente, se pidió a los estudiantes que estimaran cuántas notas de suicidio habían categorizado realmente de forma correcta, y cuántas creían que un estudiante medio acertaría. En este punto, ocurrió algo curioso. Los estudiantes del grupo de alta puntuación dijeron que pensaban que, de hecho, lo habían hecho bastante bien -significativamente mejor que el estudiante medio- aunque, como se les acababa de decir, no tenían ningún motivo para creerlo. Por el contrario, los que habían sido asignados al grupo de puntuación baja dijeron que pensaban que lo habían hecho significativamente peor que el estudiante medio, una conclusión igualmente infundada.

Ver más

«Una vez formadas», observaron secamente los investigadores, «las impresiones son notablemente perseverantes».

Unos años más tarde, se reclutó a un nuevo grupo de estudiantes de Stanford para un estudio relacionado. Los estudiantes recibieron paquetes de información sobre un par de bomberos, Frank K. y George H. La biografía de Frank señalaba, entre otras cosas, que tenía una hija pequeña y que le gustaba bucear. George tenía un hijo pequeño y jugaba al golf. Los paquetes también incluían las respuestas de los hombres en lo que los investigadores llamaron el Test de Elección de Riesgo-Conservador. Según una versión del paquete, Frank era un bombero de éxito que, en la prueba, casi siempre elegía la opción más segura. En la otra versión, Frank también elegía la opción más segura, pero era un pésimo bombero al que sus supervisores habían puesto «en aviso» varias veces. Una vez más, a mitad del estudio, se informó a los estudiantes de que habían sido engañados y de que la información que habían recibido era totalmente ficticia. A continuación, se pidió a los estudiantes que describieran sus propias creencias. ¿Qué tipo de actitud hacia el riesgo creían que tendría un bombero de éxito? Los alumnos que habían recibido el primer paquete pensaban que lo evitaría. Los estudiantes del segundo grupo pensaban que lo adoptaría.

Incluso después de que las pruebas «de sus creencias hayan sido totalmente refutadas, la gente no consigue hacer las revisiones apropiadas de esas creencias», señalaron los investigadores. En este caso, el fracaso fue «particularmente impresionante», ya que dos puntos de datos nunca habrían sido suficiente información para generalizar.

Los estudios de Stanford se hicieron famosos. Viniendo de un grupo de académicos en los años setenta, la afirmación de que la gente no puede pensar con claridad era chocante. Ya no lo es. Miles de experimentos posteriores han confirmado (y ampliado) esta conclusión. Como todos los que han seguido la investigación -o incluso han cogido ocasionalmente un ejemplar de Psychology Today- saben, cualquier estudiante de posgrado con un portapapeles puede demostrar que las personas que parecen razonables son a menudo totalmente irracionales. Pocas veces esta idea ha parecido más relevante que ahora. Sin embargo, sigue existiendo un rompecabezas esencial: En un nuevo libro, «The Enigma of Reason» (Harvard), los científicos cognitivos Hugo Mercier y Dan Sperber intentan responder a esta pregunta. Mercier, que trabaja en un instituto de investigación francés en Lyon, y Sperber, que ahora trabaja en la Universidad Centroeuropea, en Budapest, señalan que la razón es un rasgo evolucionado, como el bipedismo o la visión tricolor. Surgió en las sabanas de África y debe entenderse en ese contexto.

Despojado de lo que podría llamarse ciencia cognitiva, el argumento de Mercier y Sperber es más o menos el siguiente: La mayor ventaja de los humanos sobre otras especies es nuestra capacidad de cooperar. La cooperación es difícil de establecer y casi igual de difícil de mantener. Para cualquier individuo, ir por libre es siempre la mejor opción. La razón no se desarrolló para permitirnos resolver problemas abstractos y lógicos, ni siquiera para ayudarnos a sacar conclusiones de datos desconocidos; más bien, se desarrolló para resolver los problemas que plantea la vida en grupos de colaboración.

«La razón es una adaptación al nicho hipersocial que los humanos han desarrollado para sí mismos», escriben Mercier y Sperber. Hábitos mentales que parecen extraños o tontos desde un punto de vista «intelectualista» resultan astutos cuando se ven desde una perspectiva social «interaccionista».

Consideremos lo que se conoce como «sesgo de confirmación», la tendencia que tienen las personas a aceptar la información que apoya sus creencias y a rechazar la que las contradice. De las muchas formas de pensamiento defectuoso que se han identificado, el sesgo de confirmación es uno de los mejor catalogados; es objeto de experimentos en libros de texto enteros. Uno de los más famosos se realizó, de nuevo, en Stanford. Para este experimento, los investigadores reunieron a un grupo de estudiantes que tenían opiniones opuestas sobre la pena capital. La mitad de los estudiantes estaban a favor de ella y pensaban que disuadía el crimen; la otra mitad estaba en contra y pensaba que no tenía ningún efecto sobre el crimen.

Se pidió a los estudiantes que respondieran a dos estudios. Uno proporcionaba datos que apoyaban el argumento de la disuasión, y el otro proporcionaba datos que lo ponían en duda. Ambos estudios -adivinaste- eran inventados, y habían sido diseñados para presentar lo que eran, objetivamente hablando, estadísticas igualmente convincentes. Los estudiantes que originalmente habían apoyado la pena capital calificaron los datos a favor de la disuasión como muy creíbles y los datos en contra de la disuasión como poco convincentes; los estudiantes que originalmente se habían opuesto a la pena capital hicieron lo contrario. Al final del experimento, se volvió a preguntar a los estudiantes por sus opiniones. Los que habían empezado a favor de la pena capital estaban ahora aún más a favor de ella; los que se habían opuesto eran aún más hostiles.

Si la razón está diseñada para generar juicios sólidos, entonces es difícil concebir un fallo de diseño más grave que el sesgo de confirmación. Imaginemos, sugieren Mercier y Sperber, un ratón que piense como nosotros. Un ratón así, «empeñado en confirmar su creencia de que no hay gatos en los alrededores», pronto sería la cena. En la medida en que el sesgo de confirmación lleva a la gente a descartar las pruebas de amenazas nuevas o subestimadas -el equivalente humano del gato a la vuelta de la esquina- es un rasgo que debería haber sido seleccionado en contra. El hecho de que tanto nosotros como él sobrevivamos, argumentan Mercier y Sperber, demuestra que debe tener alguna función adaptativa, y esa función, sostienen, está relacionada con nuestra «hipersociabilidad»

Mercier y Sperber prefieren el término «sesgo místico». Los humanos, señalan, no son crédulos al azar. Cuando se nos presenta el argumento de otra persona, somos bastante hábiles para detectar los puntos débiles. Casi siempre, las posiciones que nos ciegan son las nuestras.

Un reciente experimento realizado por Mercier y algunos colegas europeos demuestra claramente esta asimetría. Se pidió a los participantes que respondieran a una serie de problemas de razonamiento sencillos. Luego se les pidió que explicaran sus respuestas y se les dio la oportunidad de modificarlas si identificaban errores. La mayoría quedó satisfecha con sus elecciones originales; menos del quince por ciento cambió de opinión en el segundo paso.

En el tercer paso, se mostró a los participantes uno de los mismos problemas, junto con su respuesta y la de otro participante, que había llegado a una conclusión diferente. Una vez más, se les dio la oportunidad de cambiar sus respuestas. Pero se les había jugado una mala pasada: las respuestas que se les presentaban como las de otra persona eran en realidad las suyas, y viceversa. Aproximadamente la mitad de los participantes se dieron cuenta de lo que estaba pasando. Entre la otra mitad, de repente la gente se volvió mucho más crítica. Casi el sesenta por ciento rechazaba ahora las respuestas con las que antes se habían sentido satisfechos.

a20683
«Gracias de nuevo por venir; normalmente estas fiestas en la oficina me resultan bastante incómodas.»

Esta asimetría, según Mercier y Sperber, refleja la tarea para la que evolucionó la razón, que es evitar que nos jodan los demás miembros de nuestro grupo. Al vivir en pequeñas bandas de cazadores-recolectores, nuestros antepasados se preocupaban sobre todo de su posición social y de asegurarse de que no eran ellos los que arriesgaban su vida en la caza mientras otros holgazaneaban en la cueva. No había mucha ventaja en razonar con claridad, mientras que se ganaba mucho ganando argumentos.

Entre las muchas, muchas cuestiones de las que nuestros antepasados no se preocupaban estaban los efectos disuasorios de la pena capital y los atributos ideales de un bombero. Tampoco tuvieron que lidiar con estudios inventados, ni con noticias falsas, ni con Twitter. No es de extrañar, pues, que hoy la razón parezca fallarnos a menudo. Como escriben Mercier y Sperber, «este es uno de los muchos casos en los que el entorno cambió demasiado rápido para que la selección natural pudiera ponerse al día».

Steven Sloman, profesor de Brown, y Philip Fernbach, profesor de la Universidad de Colorado, son también científicos cognitivos. Ellos también creen que la sociabilidad es la clave del funcionamiento de la mente humana o, quizás más pertinente, de su mal funcionamiento. Comienzan su libro, «The Knowledge Illusion: Why We Never Think Alone» (Riverhead), con una mirada a los inodoros.

Casi todo el mundo en Estados Unidos, y de hecho en todo el mundo desarrollado, está familiarizado con los inodoros. Un inodoro típico tiene una taza de cerámica llena de agua. Cuando se aprieta la palanca o se pulsa el botón, el agua -y todo lo que se ha depositado en ella- es aspirada hacia una tubería y de ahí al sistema de alcantarillado. En un estudio realizado en Yale, se pidió a los estudiantes de posgrado que evaluaran su comprensión de los dispositivos cotidianos, incluidos los inodoros, las cremalleras y las cerraduras de cilindro. A continuación, se les pidió que escribieran explicaciones detalladas, paso a paso, sobre el funcionamiento de los dispositivos, y que volvieran a calificar su comprensión. Al parecer, el esfuerzo reveló a los estudiantes su propia ignorancia, porque sus autoevaluaciones disminuyeron. (Resulta que los inodoros son más complicados de lo que parece.)

Sloman y Fernbach observan este efecto, que llaman «ilusión de profundidad explicativa», en casi todas partes. La gente cree que sabe mucho más de lo que realmente sabe. Lo que nos permite persistir en esta creencia son otras personas. En el caso de mi retrete, otra persona lo diseñó para que yo pudiera manejarlo fácilmente. Esto es algo en lo que los humanos somos muy buenos. Hemos confiado en la experiencia de los demás desde que descubrimos cómo cazar juntos, lo que probablemente fue un desarrollo clave en nuestra historia evolutiva. Sloman y Fernbach afirman que colaboramos tan bien que apenas podemos distinguir dónde termina nuestro propio conocimiento y dónde empieza el de los demás.

«Una de las consecuencias de la naturalidad con la que dividimos el trabajo cognitivo», escriben, es que «no hay una frontera clara entre las ideas y los conocimientos de una persona» y «los de otros miembros» del grupo.

Esta ausencia de fronteras, o, si se prefiere, de confusión, también es crucial para lo que consideramos progreso. A medida que la gente inventaba nuevas herramientas para nuevas formas de vida, creaba simultáneamente nuevos ámbitos de ignorancia; si todo el mundo hubiera insistido en, por ejemplo, dominar los principios del trabajo del metal antes de coger un cuchillo, la Edad de Bronce no habría llegado a mucho. Cuando se trata de nuevas tecnologías, la comprensión incompleta es potenciadora.

Donde nos mete en problemas, según Sloman y Fernbach, es en el ámbito político. Una cosa es que yo tire de la cadena de un inodoro sin saber cómo funciona, y otra que esté a favor (o en contra) de una prohibición de la inmigración sin saber de qué estoy hablando. Sloman y Fernbach citan una encuesta realizada en 2014, no mucho después de que Rusia se anexionara el territorio ucraniano de Crimea. A los encuestados se les preguntó cómo creían que debía reaccionar Estados Unidos, y también si podían identificar Ucrania en un mapa. Cuanto más alejados estaban de la geografía, más probable era que estuvieran a favor de la intervención militar. (Los encuestados estaban tan inseguros de la ubicación de Ucrania que la media de las respuestas era errónea en 1.800 millas, aproximadamente la distancia de Kiev a Madrid).

Las encuestas sobre muchos otros temas han arrojado resultados igualmente desalentadores. «Por regla general, los sentimientos fuertes sobre los temas no surgen de una comprensión profunda», escriben Sloman y Fernbach. Y aquí nuestra dependencia de otras mentes refuerza el problema. Si tu posición sobre, por ejemplo, la Ley de Asistencia Asequible no tiene fundamento y yo me apoyo en ella, entonces mi opinión tampoco tiene fundamento. Cuando hablo con Tom y él decide que está de acuerdo conmigo, su opinión también carece de fundamento, pero ahora que los tres coincidimos nos sentimos mucho más orgullosos de nuestras opiniones. Si ahora todos descartamos como poco convincente cualquier información que contradiga nuestra opinión, se obtiene, bueno, la Administración Trump.

«Así es como una comunidad de conocimiento puede volverse peligrosa», observan Sloman y Fernbach. Ambos han realizado su propia versión del experimento del retrete, sustituyendo las políticas públicas por artilugios domésticos. En un estudio realizado en 2012, preguntaron a la gente su postura sobre cuestiones como: ¿Debería haber un sistema de sanidad de pagador único? ¿O una remuneración basada en el mérito para los profesores? Se pidió a los participantes que calificaran sus posiciones en función del grado de acuerdo o desacuerdo con las propuestas. A continuación, se les pidió que explicaran, con el mayor detalle posible, las repercusiones de la aplicación de cada una de ellas. En este punto, la mayoría tuvo problemas. Cuando se les pidió de nuevo que calificaran sus puntos de vista, bajaron la intensidad, de modo que estaban de acuerdo o en desacuerdo con menos vehemencia.

Sloman y Fernbach ven en este resultado una pequeña vela para un mundo oscuro. Si nosotros -o nuestros amigos o los expertos de la CNN- dedicáramos menos tiempo a pontificar y más a tratar de analizar las implicaciones de las propuestas políticas, nos daríamos cuenta de lo despistados que estamos y moderaríamos nuestras opiniones». Esto, escriben, «puede ser la única forma de pensar que romperá la ilusión de la profundidad explicativa y cambiará las actitudes de la gente».

Una forma de ver la ciencia es como un sistema que corrige las inclinaciones naturales de la gente. En un laboratorio bien gestionado, no hay lugar para el sesgo de mi lado; los resultados tienen que ser reproducibles en otros laboratorios, por investigadores que no tienen ningún motivo para confirmarlos. Y podría decirse que ésta es la razón por la que el sistema ha tenido tanto éxito. En un momento dado, un campo puede estar dominado por las disputas, pero, al final, la metodología prevalece. La ciencia avanza, aunque nosotros sigamos estancados.

En «Negar hasta la tumba: Por qué ignoramos los hechos que nos salvarán» (Oxford), Jack Gorman, psiquiatra, y su hija, Sara Gorman, especialista en salud pública, indagan en la brecha existente entre lo que nos dice la ciencia y lo que nos decimos a nosotros mismos. Su preocupación se centra en aquellas creencias persistentes que no sólo son demostrablemente falsas, sino también potencialmente mortales, como la convicción de que las vacunas son peligrosas. Por supuesto, lo que es peligroso es no estar vacunado; para eso se crearon las vacunas en primer lugar. «La inmunización es uno de los triunfos de la medicina moderna», señalan los Gorman. Pero por muchos estudios científicos que concluyan que las vacunas son seguras y que no hay relación entre las inmunizaciones y el autismo, los antivacunas siguen sin inmutarse. (Ahora pueden contar de su lado -más o menos- con Donald Trump, que ha dicho que, aunque él y su mujer hicieron vacunar a su hijo Barron, se negaron a hacerlo en el calendario recomendado por los pediatras.)

Los Gorman también argumentan que formas de pensar que ahora parecen autodestructivas debieron ser en algún momento adaptativas. Y también dedican muchas páginas al sesgo de confirmación, que, según ellos, tiene un componente fisiológico. Citan investigaciones que sugieren que las personas experimentan un auténtico placer -un subidón de dopamina- cuando procesan información que apoya sus creencias. «Los Gorman no se limitan a catalogar los errores que cometemos, sino que quieren corregirlos. Deben encontrar alguna forma de convencer a la gente de que las vacunas son buenas para los niños y las armas de fuego son peligrosas. (Otra creencia extendida pero estadísticamente insostenible que les gustaría desacreditar es que poseer un arma te hace más seguro). Pero aquí se encuentran con los mismos problemas que han enumerado. Proporcionar a la gente información precisa no parece ayudar; simplemente la descartan. Apelar a sus emociones puede funcionar mejor, pero hacerlo es obviamente antitético al objetivo de promover una ciencia sólida. «El reto que queda», escriben hacia el final de su libro, «es averiguar cómo abordar las tendencias que conducen a la falsa creencia científica».

«El enigma de la razón», «La ilusión del conocimiento» y «Negar hasta la tumba» fueron escritos antes de las elecciones de noviembre. Y, sin embargo, se anticipan a Kellyanne Conway y al auge de los «hechos alternativos». En estos días, puede parecer que todo el país se ha entregado a un vasto experimento psicológico dirigido por nadie o por Steve Bannon. Los agentes racionales serían capaces de pensar su camino hacia una solución. Pero, en este asunto, la literatura no es tranquilizadora. ♦

Deja una respuesta

Tu dirección de correo electrónico no será publicada.