segunda-feira, 23 de outubro de 2017

Porque fatos não nos fazem mudar de ideia?


Um estudo realizado pela faculdade Stanford na década de 70, repetido exaustivamente até os dias de hoje, demonstram que “Uma vez formada uma opinião sobre um assunto, as “impressões são notavelmente perseverantes”, ou seja, “fatos” não nos fazem mudar de “ideia”, mesmo, ou principalmente, se estes fatos contrariam nossa opinião.

Mesmo quando existe a evidência de que “suas crenças foram completamente refutadas, as pessoas não conseguem fazer as revisões adequadas dessas convicções,” notaram os pesquisadores, tanto nos anos setenta quanto nas revisões de hoje em dia. 

Mas como nos tornamos assim?

Em seu novo livro, O enigma da razão (Harvard), os cientistas cognitivos Hugo Mercier e Dan Sperber tentam responder essa pergunta. Mercier, que trabalha num instituto de pesquisa francês em Lyon, e Sperber, hoje na Universidade da Europa Central, em Budapeste, apontam que a razão é um traço evolutivo, como o bipedismo ou o tricromatismo. Ele surgiu nas savanas da África e precisa ser compreendido nesse contexto e se desenvolve mais ou menos desta maneira:

"A maior vantagem humana sobre outras espécies é sua habilidade de cooperar. Cooperação é algo difícil de se estabelecer e ainda mais difícil de se manter. Para qualquer indivíduo, a exploração de um outro indivíduo é o melhor curso de ação. A razão não se desenvolveu para nos permitir resolver problemas abstratos e lógicos ou para nos ajudar a tirar conclusões de dados estranhos, mas sim para resolvermos os problemas decorrentes de se viver em grupos colaborativos." 

“Razão é uma adaptação que os humanos em nichos hipersociais desenvolveram para si”, Mercier e Sperber escrevem. Hábitos da mente que parecem estranhos ou atrapalhados ou simplesmente burros do ponto de vista “intelectualista” se mostram sagazes quando vistos de uma perspectiva “interacionista”.


Considere o que ficou conhecido como “viés de confirmação”: a tendência que as pessoas têm de acolher informações que suportam suas crenças e rejeitar informações que as contradizem. Das várias formas identificadas que o pensamento falho assume, o viés de confirmação é uma das melhores catalogadas; é o assunto principal de uma quantidade de experimentos dignas de um compêndio.

Um dos experimentos mais famosos a respeito foi feito, novamente, em Stanford. Pesquisadores reuniram um grupo de estudantes que tinham opiniões divergentes sobre a pena de morte. Metade dos alunos era a favor e acreditava que ela desencorajava crimes e a outra metade era contra e achava que a punição não tinha nenhum efeito na criminalidade.

Foi pedido que eles avaliassem dois estudos. Um fornecia dados que sustentavam o desencorajamento de crimes e o outro fornecia dados que questionavam isso. Ambos os estudos — você adivinhou — eram inventados, e foram projetados para apresentar estatísticas que eram igualmente persuasivas, objetivamente falando. Os estudantes que de início apoiavam a pena de morte avaliaram os dados pró-pena como altamente críveis e os anti-pena como duvidosos; os alunos que originalmente se opunham a pena de morte fizeram o contrário. No final do experimento, foi perguntado novamente aos estudantes sobre suas opiniões. Aqueles que começaram apoiando a pena capital estavam ainda mais a favor e aqueles que se opunham a ela estavam ainda mais contrários.

Se a razão é projetada para gerar julgamentos sólidos, então é difícil conceber um erro de projeto mais sério que o viés de confirmação. Imagine, Mercier e Sperber sugerem, um rato que pensa da mesma maneira que nós. Tal rato, “inclinado a confirmar sua crença de que não há gatos por perto”, se tornaria jantar rapidamente. Se chega-se ao ponto de que o viés de confirmação leva as pessoas a descartar evidências de ameaças novas ou subestimadas — o equivalente humano para o gato por perto —, essa é uma característica que deveria ter se extinguido na seleção natural. O fato de que tanto nós quanto essa característica sobreviveram,  dizem os cientistas, prova que ela deve ter alguma função adaptativa e que essa função está relacionada a nossa “hipersociabilidade”.

Ambos os pesquisadores preferem o termo “viés do meu lado”. Segundo eles, os humanos não são crédulos aleatoriamente. Apresentados ao argumento de outra pessoa, nós somos bastante capazes de apontar suas fraquezas. Quase invariavelmente, somos cegos em relação a nossas opiniões.

Um experimento recente realizado por Mercier e alguns colegas europeus mostrou claramente essa assimetria. Foi pedido aos participantes que respondessem uma série de problemas simples de raciocínio. Depois foi pedido que eles explicassem suas respostas, e foi dada a possibilidade de modificá-las se as pessoas identificassem erros. A maioria ficou satisfeito com suas escolhas originais; e menos de 15% mudou de ideia na etapa dois.

Na etapa três, foi mostrado aos participantes um dos problemas, junto com suas respostas e com as respostas de outro participante, que havia chegado a outra conclusão. Novamente, foi dada aos participantes a chance de alterar sua resposta. Mas havia uma pegadinha: as respostas apresentadas como de outra pessoa na verdade eram as deles mesmos, e vice-versa. Cerca de metade dos participantes perceberam o que estava acontecendo. Mas na outra metade, as pessoas de repente se tornaram muito mais críticas. Quase 60% agora rejeitava as respostas que antes pareciam perfeitamente satisfatórias.

Essa assimetria, de acordo com Mercier e Sperber, reflete a tarefa que a razão evoluiu para realizar, que é nos prevenir de ser ferrado por outro membro de nosso grupo. Vivendo em pequenos bandos de caçadores, nossos ancestrais se preocupavam principalmente com sua posição social e com a certeza de que eles não seriam os únicos arriscando suas vidas nas caçadas enquanto outros vadiavam na caverna. Havia pouca vantagem em racionalizar claramente, e muito mais em ganhar discussões.

Como Mercier e Sperber escreveram, “Esse é um dos vários casos em que o ambiente mudou rápido demais para a seleção natural conseguir acompanhar.”

Steven Sloman, professor na Brown, e Philip Fernbach, professor na Universidade do Colorado, também são cientistas cognitivos. Eles também acreditam que a sociabilidade é a chave para explicar como a mente humana funciona ou, talvez ainda mais pertinentemente, não funciona. 

Eles começaram seu livro, A ilusão do saber: porque nunca pensamos sozinhos (Riverhead), dando uma olhada em "privadas".

Praticamente todo mundo nos Estados Unidos, e pelo mundo desenvolvido, está familiarizado com privadas. Uma privada típica tem uma bacia de cerâmica cheia de água. Quando a alavanca é pressionada, ou o botão empurrado, a água — e tudo que foi depositado nela — é sugada para um cano e depois para um sistema de esgoto. Mas como isso acontece de verdade?

Num estudo conduzido em Yale, foi pedido a pós-graduandos que avaliassem seu entendimento de dispositivos do dia a dia, incluindo privadas, zíperes e cilindros de fechaduras. Foi pedido que eles escrevessem explicações detalhadas, passo a passo, de como esses dispositivos funcionavam e que depois classificassem seus conhecimentos novamente. Aparentemente, o esforço revelou aos estudantes a própria ignorância, porque suas autoavaliações pioraram. (Privadas, como se descobriu, são mais complicadas do que parecem.)

Sloman e Fernbach veem esse efeito, que eles chamam de “ilusão da profundidade explicativa”, em quase todo lugar. As pessoas acreditam que sabem mais do que realmente sabem. 

E o que nos permite manter essa crenças são as "outras pessoas". 

No caso da minha privada, outra pessoa a projetou para que eu pudesse operá-la facilmente. Isso é algo em que os humanos são muito bons. Dependemos da experiência dos outros desde que descobrimos como caçar juntos, o que provavelmente foi a chave do nosso desenvolvimento na história evolutiva. Colaboramos tão bem que mal conseguimos notar onde nosso entendimento acaba e o de outra pessoa começa, conta a dupla.

“Uma implicação da naturalidade com que dividimos trabalho cognitivo é que não há nenhum limite claro entre as ideias e o conhecimento de uma pessoa e o de outros membros do grupo.”

Essa falta de fronteiras, ou, se você preferir, confusão, também é crucial para o que consideramos como progresso. À medida em que as pessoas inventavam ferramentas para novas maneiras de se viver, elas criaram simultaneamente novos âmbitos de ignorância; se todo mundo insistisse em, digamos, dominar os princípios de se trabalhar com metal antes de pegar uma faca, a Era do Bronze não teria valido muita coisa. Quando se trata de novas tecnologias, entendimento incompleto é empoderador.

Porém, o que nos causa problemas, de acordo com eles, é o "domínio político". 

Uma coisa é eu apertar a descarga sem saber como uma privada opera, e outra coisa é favorecer (ou me opor) uma medida anti-imigração sem saber do que estou falando. 

Eles citam uma pesquisa conduzida em 2014, não muito depois da Rússia ter anexado o território ucraniano da Crimeia onde foi perguntado aos entrevistados como eles achavam que os EUA deveriam reagir, e se eles conseguiam identificar a Ucrânia no mapa. Quanto menos a pessoa sabia sobre a geografia, maiores eram as chances de ela ser a favor da intervenção militar.

Pesquisas sobre muitas outras questões levantaram resultados tão desanimadores quantos.

 “Como regra, sentimentos intensos sobre algo não surgem de entendimentos profundos”, escrevem. E aqui nossa dependência de outras mentes reforça o problema. Se sua posição sobre, digamos, o Obamacare é infundada e eu confio nela, então minha opinião também é infundada. Quando eu falo com Tom e ele decide concordar comigo, a opinião dele também é infundada, mas, agora que nós três concordamos, nos sentimos muito mais confiantes sobre nosso ponto de vista. Se agora dispensássemos qualquer informação que contradiz nossa opinião, você tem, bem, o Governo Trump.

“É assim que uma comunidade de saber pode se tornar perigosa”, observam.

Os dois executaram sua própria versão do experimento da privada, substituindo dispositivos diários por políticas públicas. Num estudo conduzido em 2012, eles perguntaram para pessoas suas posições em relação a questões como:

 Deveria haver um único pagante do sistema de saúde? 

Ou salário meritocráticos para professores? 

Foi pedido aos participantes que avaliassem suas posições de acordo com o quão fortemente elas concordam ou discordam com as propostas. 

Depois, foram instruídos a explicar, com o máximo de detalhes possível, o impacto de implementar essas propostas. A maioria dos participantes se enrolaram nessa parte. Novamente eles avaliaram suas opiniões, mas diminuíram sua intensidade, então eles concordavam ou discordavam menos veementemente.


Para a tecnologia é ótimo que cada um domine e se aperfeiçoe apenas numa coisa, para a sociedade, nem tanto.

Os cientistas veem esse resultado como uma luz no fim do túnel nesse mundo sombrio. Se nós – ou nossos amigos ou os gurus na CNN – passarmos menos tempo palestrando e mais tempo tentando entender as implicações das propostas políticas, perceberíamos o quão ignorantes somos e moderaríamos nossas opiniões. Isso, eles escrevem, “talvez seja a única forma de pensamento que irá estilhaçar a ilusão da profundidade explicativa e mudar a atitude das pessoas”.

Uma maneira de olhar para ciência é como um sistema que corrige as inclinações naturais das pessoas. Num laboratório bem administrado, não há espaço para viés do meu lado; os resultados precisam ser reproduzíveis em outros laboratórios, por pesquisadores que não tem nenhuma razão para confirmá-las. E isso, pode ser argumentado, é o que torna o sistema tão bem-sucedido. Num momento ou outro o campo pode estar repleto de picuinhas, mas, no final, a metodologia prevalece. A ciência avança, mesmo quando nos permanecemos presos no mesmo lugar.

Em "Negando até a morte": porque ignoramos os fatos que irão nos salvar (Oxford), Jack Gorman, um psiquiatra, e sua filha, Sara Gorman, uma especialista em saúde pública, investigam o buraco entre o que a ciência nos diz e o que nós dizemos a nós mesmos. 

A preocupação deles é com crenças persistentes que não só são comprovadamente falsas mas também potencialmente fatais, como a convicção de que vacinas são prejudiciais. É claro, o que é prejudicial é não ser vacinado; por isso que as vacinas foram criadas, em primeiro lugar. “Imunização é um dos triunfos da medicina moderna”, os Gormans apontam. Mas não importa quantos estudos científicos concluam que vacinas são seguras, e que não há nenhuma relação entre vacina e autismo, os anti-vacinação permanecem convictos (Eles agora têm do seu lado – de certa maneira – Donald Trump, que disse que, apesar de seu filho Barron ter sido vacinado, ele o foi depois do período recomendado por pediatras).

Os Gorman também defendem que maneiras de se pensar que hoje parecem autodestrutivas deveriam ser adaptativas em algum momento. Também dedicam muitas páginas ao viés de confirmação, que, eles clamam, tem um componente fisiológico. Citam pesquisas que sugerem que as pessoas experimentam prazer genuíno – uma dose de dopamina – ao processar informações que suportam suas crenças. “Nos sentimos bem ao ‘nos mantermos firmes em nossas convicções’ mesmo quando estamos errados”, eles observam.

Os Gorman não querem só catalogar as maneiras com que estamos errados; eles querem corrigi-las. 

Deve haver alguma maneira, eles defendem, de convencer as pessoas de que vacinas são boas para as crianças, e de que revólveres são perigosos. (Outra crença difundida mas estatisticamente equivocada que eles gostam de questionar é que ter uma arma te deixa mais seguro.) Mas aqui eles encontram exatamente os mesmos problemas que eles ajudaram a identificar. Fornecer às pessoas informações confiáveis não parece ajudar; eles simplesmente a descartam. Apelar para suas emoções talvez funcione melhor, mas fazer isso é obviamente antiético para o objetivo de promover dados científicos sólidos. “O desafio que permanece”, eles escrevem mais para o final do livro, “é descobrir como abordar tendências que levam a proposições cientificamente falsas”.

“O enigma da razão”, “A ilusão do saber” e “Negando a gravidade” foram todos escritos antes da eleição de novembro. E mesmo assim eles anteciparam Kellyanne Conway e a ascensão dos “fatos alternativos”. Esses dias parece que o país todo foi dominado por um vasto experimento psicológico conduzido ou por ninguém ou por Steven Bannon. Agentes racionais seriam capazes de pensar numa solução. Mas, nesse assunto, a literatura não nos é reconfortante.


"O enigma da razão”, : http://www.hup.harvard.edu/catalog.php?isbn=9780674368309

A ilusão do saber: porque nunca pensamos sozinhos (Riverhead) :  https://www.amazon.com.br/Knowledge-Illusion-Never-Think-Alone/dp/039918435X

"Negando até a morte": porque ignoramos os fatos que irão nos salvar (Oxford), Jack Gorman e sua Sara Gorman: http://www1.folha.uol.com.br/colunas/helioschwartsman/2017/03/1865731-negando-ate-a-morte.shtml
Postar um comentário