Por que os fatos não mudam nossas mentes

Em 1975, pesquisadores de Stanford convidaram um grupo de graduados a participar de um estudo sobre suicídio. Foram apresentados a eles pares de notas de suicídio. Em cada par, uma nota tinha sido composta por um indivíduo aleatório, a outra por uma pessoa que tinha posteriormente tirado a sua própria vida. Os alunos foram então solicitados a distinguir entre as notas genuínas e as falsas.

Alguns alunos descobriram que tinham um gênio para a tarefa. De vinte e cinco pares de notas, eles identificaram corretamente a verdadeira vinte e quatro vezes. Outros descobriram que eram desesperados. Eles identificaram a nota real em apenas dez casos.

Como é muitas vezes o caso dos estudos psicológicos, toda a configuração foi um put-on. Embora metade das notas fossem realmente genuínas – elas tinham sido obtidas do gabinete do médico legista do condado de Los Angeles – as notas eram fictícias. Os alunos a quem foi dito que estavam quase sempre certos não eram, em média, mais perspicazes do que aqueles a quem foi dito que estavam na sua maioria errados.

Na segunda fase do estudo, o engano foi revelado. Foi dito aos alunos que o verdadeiro objectivo da experiência era avaliar as suas respostas para pensar que estavam certos ou errados. Finalmente, foi pedido aos alunos que estimassem quantas notas de suicídio eles tinham categorizado corretamente, e quantas eles achavam que um aluno médio iria acertar. Neste ponto, algo curioso aconteceu. Os alunos do grupo das notas altas disseram que achavam que tinham, de facto, feito muito bem – significativamente melhor do que o aluno médio – embora, como lhes tinha acabado de dizer, não tivessem motivos para acreditar nisso. Por outro lado, aqueles que tinham sido designados para o grupo das notas baixas disseram que achavam que tinham feito significativamente pior do que o aluno médio – uma conclusão igualmente infundada.

Ver mais

“Uma vez formados”, os pesquisadores observaram secamente, “as impressões são notavelmente perseverantes”.

Poucos anos depois, um novo conjunto de alunos de Stanford foi recrutado para um estudo relacionado. Os estudantes receberam pacotes de informações sobre um par de bombeiros, Frank K. e a biografia de George H. Frank observou que, entre outras coisas, ele tinha uma filha pequena e gostava de mergulhar. George tinha um filho pequeno e jogava golfe. Os pacotes também incluíam as respostas dos homens sobre o que os pesquisadores chamaram de Teste de Escolha Risky-Conservative. Segundo uma versão do pacote, Frank foi um bombeiro bem sucedido que, no teste, quase sempre foi com a opção mais segura. Na outra versão, Frank também escolheu a opção mais segura, mas ele era um péssimo bombeiro que tinha sido colocado “no relatório” por seus supervisores várias vezes. Mais uma vez, no meio do estudo, os alunos foram informados de que tinham sido enganados e que a informação que tinham recebido era totalmente fictícia. Os estudantes foram então solicitados a descrever as suas próprias crenças. Que tipo de atitude em relação ao risco eles achavam que um bombeiro de sucesso teria? Os alunos que receberam o primeiro pacote pensaram que ele o evitaria. Os estudantes do segundo grupo pensaram que ele o abraçaria.

Even após a evidência “pois suas crenças foram totalmente refutadas, as pessoas falham em fazer revisões apropriadas nessas crenças”, os pesquisadores observaram. Neste caso, o fracasso foi “particularmente impressionante”, já que dois pontos de dados nunca teriam sido informação suficiente para generalizar de.

Os estudos de Stanford tornaram-se famosos. Vindo de um grupo de académicos nos anos dezanove e setenta, a alegação de que as pessoas não conseguem pensar direito foi chocante. Já não é mais. Milhares de experiências subsequentes confirmaram (e aprofundaram) esta descoberta. Como todos os que acompanharam a pesquisa – ou mesmo ocasionalmente pegaram uma cópia de Psicologia Hoje – sabem, qualquer aluno de pós-graduação com uma prancheta pode demonstrar que pessoas de aparência razoável são muitas vezes totalmente irracionais. Raramente essa percepção pareceu mais relevante do que agora. Ainda assim, um puzzle essencial permanece: Como chegamos a ser assim?

Num novo livro, “O Enigma da Razão” (Harvard), os cientistas cognitivos Hugo Mercier e Dan Sperber dão uma facada ao responder a esta pergunta. Mercier, que trabalha em um instituto de pesquisa francês em Lyon, e Sperber, agora baseado na Universidade da Europa Central, em Budapeste, apontam que a razão é uma característica evoluída, como o bipedalismo ou a visão tricolor. Ela surgiu nas savanas da África, e tem que ser entendida nesse contexto.

Despojada de muito do que poderia ser chamado de cognitivo-ciência-ese, o argumento de Mercier e Sperber corre, mais ou menos, como se segue: A maior vantagem dos humanos sobre outras espécies é a nossa capacidade de coöperar. A coöperação é difícil de estabelecer e quase tão difícil de sustentar. Para qualquer indivíduo, o freeloading é sempre o melhor curso de ação. A razão desenvolveu-se não para nos permitir resolver problemas abstractos, lógicos ou mesmo para nos ajudar a tirar conclusões a partir de dados desconhecidos; pelo contrário, desenvolveu-se para resolver os problemas colocados por viver em grupos colaborativos.

“A razão é uma adaptação ao nicho hipersocial que os humanos evoluíram para si próprios”, escrevem Mercier e Sperber. Hábitos de mente que parecem estranhos ou patetas ou apenas burros do ponto de vista “intelectualista” provam ser sagazes quando vistos de uma perspectiva social “interacionista”.

Considerando o que ficou conhecido como “viés de confirmação”, a tendência que as pessoas têm para abraçar informações que apóiam suas crenças e rejeitar informações que as contradizem. Das muitas formas de pensamento errôneo que foram identificadas, o viés de confirmação está entre as mais bem catalogadas; é o assunto de todo o valor de experiências de livros didáticos. Uma das mais famosas foi realizada, novamente, em Stanford. Para esta experiência, os pesquisadores reuniram um grupo de estudantes que tinham opiniões contrárias sobre a pena capital. Metade dos estudantes era a favor e achavam que isso dissuadia o crime; a outra metade era contra e achavam que não tinha efeito sobre o crime.

Foram solicitados aos estudantes que respondessem a dois estudos. Um forneceu dados em apoio ao argumento da dissuasão, e o outro forneceu dados que o colocaram em questão. Ambos os estudos – você adivinhou – foram inventados, e foram projetados para apresentar o que eram, objetivamente falando, estatísticas igualmente convincentes. Os estudantes que originalmente tinham apoiado a pena capital classificaram os dados a favor da dissuasão como altamente credíveis e os dados contra a dissuasão como pouco convincentes; os estudantes que originalmente se tinham oposto à pena capital fizeram o contrário. No final da experiência, os alunos foram questionados mais uma vez sobre suas opiniões. Aqueles que tinham começado a favor da pena capital eram agora ainda mais favoráveis a ela; aqueles que se opuseram a ela eram ainda mais hostis.

Se a razão é concebida para gerar julgamentos sólidos, então é difícil conceber uma falha de concepção mais séria do que um viés de confirmação. Imagine, Mercier e Sperber sugerem, um rato que pensa da forma como nós pensamos. Um rato assim, “decidido a confirmar a sua crença de que não há gatos por perto”, seria em breve um jantar. Na medida em que o viés de confirmação leva as pessoas a descartar evidências de ameaças novas ou subvalorizadas – o equivalente humano do gato da esquina – é uma característica que deveria ter sido selecionada contra. O fato de tanto nós quanto ele sobreviverem, argumentam Mercier e Sperber, prova que ele deve ter alguma função adaptativa, e essa função, eles mantêm, está relacionada à nossa “hipersociabilidade”

Mercier e Sperber preferem o termo “viés místico”. Os humanos, eles salientam, não são aleatoriamente crédulos. Apresentados com o argumento de outra pessoa, somos bastante hábeis em detectar as fraquezas. Quase invariavelmente, as posições sobre as quais estamos cegos são as nossas.

Uma experiência recente realizada por Mercier e alguns colegas europeus demonstra claramente esta assimetria. Os participantes foram convidados a responder a uma série de problemas de raciocínio simples. Foi-lhes então pedido que explicassem as suas respostas, e foi-lhes dada uma oportunidade de as modificar se identificassem erros. A maioria ficou satisfeita com suas escolhas originais; menos de quinze por cento mudaram de idéia no passo dois.

No passo três, foi mostrado aos participantes um dos mesmos problemas, juntamente com sua resposta e a resposta de outro participante, que chegou a uma conclusão diferente. Mais uma vez, foi-lhes dada a oportunidade de mudar as suas respostas. Mas um truque tinha sido jogado: as respostas apresentadas a eles como sendo de outra pessoa eram realmente suas, e vice versa. Cerca de metade dos participantes se deu conta do que estava acontecendo. Entre a outra metade, de repente, as pessoas se tornaram muito mais críticas. Quase sessenta por cento agora rejeitaram as respostas com as quais tinham ficado satisfeitos.

a20683
“Obrigado mais uma vez por terem vindo… Eu normalmente acho estas festas de escritório bastante embaraçosas.”

Esta desproporção, segundo Mercier e Sperber, reflecte a tarefa que a razão evoluiu para realizar, que é evitar que sejamos aparafusados pelos outros membros do nosso grupo. Vivendo em pequenos grupos de caçadores-colectores, os nossos antepassados preocupavam-se principalmente com a sua posição social, e em garantir que não fossem eles a arriscar as suas vidas na caça enquanto outros andavam por aí a vadiar na caverna. Havia pouca vantagem em raciocinar claramente, enquanto que muito se ganhava com argumentos vencedores.

entre os muitos, muitos assuntos com os quais nossos antepassados não se preocupavam eram os efeitos dissuasores da pena capital e os atributos ideais de um bombeiro. Nem tiveram que se contentar com estudos forjados, ou notícias falsas, ou com o Twitter. Não é de admirar, então, que hoje em dia a razão pareça falhar-nos muitas vezes. Como Mercier e Sperber escrevem, “Este é um dos muitos casos em que o ambiente mudou muito rapidamente para que a seleção natural alcançasse”,

Steven Sloman, professor na Brown, e Philip Fernbach, professor na Universidade do Colorado, também são cientistas cognitivos. Eles também acreditam que a sociabilidade é a chave para o funcionamento da mente humana ou, talvez mais pertinentemente, para o seu mau funcionamento. Eles começam seu livro “The Knowledge Illusion” (A Ilusão do Conhecimento): Why We Never Think Alone” (Porque Nunca Pensamos Sozinhos), com um olhar sobre banheiros.

Virtualmente, todos nos Estados Unidos, e de fato em todo o mundo desenvolvido, estão familiarizados com banheiros. Um banheiro com descarga típica tem uma bacia de cerâmica cheia de água. Quando o puxador é pressionado, ou o botão pressionado, a água – e tudo o que foi depositado nela – é sugado para um cano e daí para o sistema de esgoto. Mas como isso realmente acontece?

Em um estudo realizado em Yale, foi pedido aos alunos de pós-graduação que classificassem seus conhecimentos sobre dispositivos do dia-a-dia, incluindo banheiros, zíperes e fechaduras de cilindro. Em seguida, foi pedido a eles que escrevessem explicações detalhadas, passo a passo, de como os dispositivos funcionam, e que classificassem sua compreensão novamente. Aparentemente, o esforço revelou aos alunos a sua própria ignorância, porque as suas auto-avaliações caíram. (Os sanitários, afinal, são mais complicados do que parecem.)

Sloman e Fernbach vêem esse efeito, que eles chamam de “ilusão de profundidade explicativa”, em quase todos os lugares. As pessoas acreditam que elas sabem muito mais do que realmente sabem. O que nos permite persistir nesta crença são outras pessoas. No caso do meu banheiro, outra pessoa o projetou para que eu possa operá-lo facilmente. Isto é algo em que os humanos são muito bons. Temos contado com a experiência uns dos outros desde que descobrimos como caçar juntos, o que foi provavelmente um desenvolvimento chave na nossa história evolutiva. Tão bem colaboramos, Sloman e Fernbach argumentam, que dificilmente podemos dizer onde termina a nossa própria compreensão e começa a dos outros.

“Uma implicação da naturalidade com a qual dividimos o trabalho cognitivo”, eles escrevem, é que não há “nenhuma fronteira nítida entre as idéias e o conhecimento de uma pessoa” e “as de outros membros” do grupo.

Esta ausência de fronteiras, ou, se preferirmos, confusão, também é crucial para o que consideramos progresso. Ao inventarem novas ferramentas para novas formas de vida, as pessoas criaram simultaneamente novos reinos de ignorância; se todos tivessem insistido, digamos, em dominar os princípios da metalurgia antes de pegar numa faca, a Idade do Bronze não teria sido grande coisa. Quando se trata de novas tecnologias, a compreensão incompleta é fortalecedora.

Onde nos coloca em apuros, segundo Sloman e Fernbach, está no domínio político. Uma coisa é eu puxar o autoclismo sem saber como funciona e outra é eu favorecer (ou me opor) a uma proibição de imigração sem saber do que estou falando. Sloman e Fernbach citam uma pesquisa realizada em 2014, não muito depois que a Rússia anexou o território ucraniano da Crimeia. Foi perguntado aos entrevistados como eles achavam que os EUA deveriam reagir, e também se eles poderiam identificar a Ucrânia em um mapa. Quanto mais distantes da base estivessem da geografia, mais provável era que favorecessem a intervenção militar. (Os respondentes estavam tão inseguros sobre a localização da Ucrânia que o palpite médio estava errado por 1800 milhas, aproximadamente a distância de Kiev a Madrid.)

Surveys sobre muitas outras questões produziram resultados igualmente desanimadores. “Como regra, sentimentos fortes sobre questões não emergem de uma compreensão profunda”, Sloman e Fernbach escrevem. E aqui a nossa dependência de outras mentes reforça o problema. Se a sua posição sobre, digamos, a Affordable Care Act é infundada e eu confio nela, então a minha opinião também é infundada. Quando eu falo com Tom e ele decide que concorda comigo, sua opinião também é infundada, mas agora que nós três concordamos, nos sentimos muito mais presunçosos com nossas opiniões. Se todos nós agora descartamos como pouco convincente qualquer informação que contradiga nossa opinião, você recebe, bem, a Administração Trump.

“É assim que uma comunidade de conhecimento pode se tornar perigosa”, observam Sloman e Fernbach. Os dois realizaram a sua própria versão do experimento do banheiro, substituindo as políticas públicas por aparelhos domésticos. Em um estudo realizado em 2012, eles perguntaram às pessoas qual a sua posição sobre questões como: Deveria haver um sistema de saúde de pagamento único? Ou o pagamento baseado no mérito para os professores? Foi pedido aos participantes que classificassem as suas posições em função do grau de concordância ou discordância com as propostas. Em seguida, eles foram instruídos a explicar, com o máximo de detalhes que pudessem, os impactos da implementação de cada uma delas. A maioria das pessoas, neste momento, teve problemas. Pedidos mais uma vez para avaliar seus pontos de vista, eles baixaram a intensidade, de modo que eles concordaram ou discordaram de forma menos veemente.

Sloman e Fernbach vêem neste resultado uma pequena vela para um mundo escuro. Se nós – ou os nossos amigos ou os especialistas da CNN – passássemos menos tempo pontificando e mais tentando trabalhar através das implicações das propostas políticas, perceberíamos como somos ignorantes e moderamos as nossas opiniões. Isto, escrevem eles, “pode ser a única forma de pensar que quebrará a ilusão de profundidade explicativa e mudará as atitudes das pessoas”

Uma forma de olhar para a ciência é como um sistema que corrige as inclinações naturais das pessoas. Em um laboratório bem administrado, não há espaço para preconceitos místicos; os resultados têm que ser reproduzíveis em outros laboratórios, por pesquisadores que não têm motivo para confirmá-los. E isto, pode-se argumentar, é a razão pela qual o sistema tem se mostrado tão bem sucedido. A qualquer momento, um campo pode ser dominado por brigas, mas, no final, a metodologia prevalece. A ciência avança, mesmo quando ficamos presos no lugar.

Em “Negando ao Grave”: Why We Ignore the Facts That Will Save Us” (Oxford), Jack Gorman, um psiquiatra, e sua filha, Sara Gorman, uma especialista em saúde pública, sondam a lacuna entre o que a ciência nos diz e o que dizemos a nós mesmos. Sua preocupação é com aquelas crenças persistentes que não são apenas comprovadamente falsas, mas também potencialmente mortais, como a convicção de que as vacinas são perigosas. É claro que o que é perigoso não é ser vacinado; é por isso que as vacinas foram criadas em primeiro lugar. “A imunização é um dos triunfos da medicina moderna”, observam os Gormans. Mas não importa quantos estudos científicos concluam que as vacinas são seguras, e que não há ligação entre imunizações e autismo, os anti-vaxxers permanecem impassíveis. (Eles agora podem contar com o seu tipo de lado def-Donald Trump, que disse que, embora ele e sua esposa tivessem seu filho, Barron, vacinado, eles se recusaram a fazê-lo no horário recomendado pelos pediatras.)

Os Gormans, também argumentam que formas de pensar que agora parecem autodestrutivas devem, em algum momento, ter sido adaptáveis. E eles também dedicam muitas páginas ao viés de confirmação, que, eles afirmam, tem um componente fisiológico. Eles citam pesquisas que sugerem que as pessoas experimentam o prazer genuíno – uma onda de dopamina – quando processam informações que apóiam suas crenças. “Sabe bem ‘aderir às nossas armas’ mesmo que estejamos errados”, eles observam.

Os Gormans não querem apenas catalogar as formas como erramos; eles querem corrigir para eles. Deve haver alguma forma, eles mantêm, de convencer as pessoas de que as vacinas são boas para as crianças, e as armas de mão são perigosas. (Outra crença generalizada mas estatisticamente insuportável que eles gostariam de desacreditar é que possuir uma arma torna-o mais seguro). Mas aqui eles encontram os mesmos problemas que enumeraram. Fornecer informações precisas às pessoas não parece ajudar; elas simplesmente descontam-nas. Apelar para as suas emoções pode funcionar melhor, mas fazê-lo é obviamente antitético ao objectivo de promover a ciência sólida. “O desafio que resta”, escrevem no final de seu livro, “é descobrir como abordar as tendências que levam à falsa crença científica”

“O Enigma da Razão”, “A Ilusão do Conhecimento” e “Negando ao Túmulo” foram todos escritos antes das eleições de novembro. E ainda assim eles antecipam Kellyanne Conway e o surgimento de “fatos alternativos”. Hoje em dia, pode parecer que o país inteiro foi entregue a uma vasta experiência psicológica que não é dirigida nem por ninguém nem por Steve Bannon. Os agentes racionais seriam capazes de pensar o seu caminho para uma solução. Mas, sobre este assunto, a literatura não é tranquilizadora. ♦

Deixe uma resposta

O seu endereço de email não será publicado.