lunes, 30 de enero de 2017

Cuando te demuestran que estás equivocado, tiendes a creer aun mas en tus (equivocadas) creencias

¿Alguna vez te ha pasado, que al enfrentar a la gente con hechos que son contrarios a sus creencias más profundas, les consigues convencer para que cambien de opinión? A mi tampoco. De hecho, la gente parece multiplicar por dos sus creencias cuando las abrumadoras evidencias les muestran los dientes. La razón está relacionada con la cosmovisión, que ellos perciben como amenazada por los datos en conflicto.

Los creacionistas, por ejemplo, debaten contra las evidencias de la evolución que encontramos en fósiles y ADN, porque están mas preocupados por las fuerzas seculares que intentar violar la fe religiosa. Los anti-vacunas desconfían de las grandes farmacéuticas y piensan que el dinero corrompe a la medicina, lo que les lleva a creer que las vacunas causan autismo a pesar del hecho (totalmente inconveniente) de que el único estudio que afirmaba tal vínculo fuese retractado, siendo además su principal autor acusado de fraude.

Los creyentes en la conspiración del 11 de septiembre, se centran en minucias tales como el punto de fusión del acero en los edificios del World Trade Center, que causaron su colapso, porque creen que el gobierno miente y lleva a cabo operaciones “subterráneas” para crear un Nuevo Orden Mundial.
Los negacionistas del cambio climático estudian los anillos de los árboles, los núcleos de hielo y las partes por millón de gases de efecto invernadero, porque son unos apasionados de la libertad, especialmente la de los mercados y la de las industrias para operar sin limitaciones a causa de las restrictivas regulaciones gubernamentales.
Los estudiosos del nacimiento de Obama, diseccionaron desesperadamente el largo certificado de nacimiento del presidente en busca de fraude, porque creían que el primer presidente afroamericano de la nación era un socialista que pretendía destruir el país.
En estos ejemplos, las visiones de mundo más profundas de quienes las defienden se perciben como amenazadas por los escépticos, lo que hace de las evidencias el enemigo al que hay que asesinar. Este poder que coloca a la creencia sobre la evidencia es el resultado de dos factores: la disonancia cognitiva y el efecto de retroceso.
En el libro clásico de 1956, “Cuando fallan las profecías”, el psicólogo Leon Festinger y el resto de coautores describieron lo que le sucedió a un creyente en los OVNIS cuando la nave nodriza no llegó a la hora señalada. En lugar de admitir el error, “los miembros del grupo intentaron frenéticamente convencer al mundo de sus creencias”, y además hicieron “una serie de intentos desesperados para borrar la disonancia que les enojaba, haciendo predicción tras predicción con la esperanza de que alguna se hiciera realidad”. Festinger llamó a esto disonancia cognitiva, que es la tensión incómoda que proviene del sostenimiento de dos pensamientos conflictivos simultáneamente.

Dos psicólogos sociales, Carol Tavris y Elliot Aronson (este último ex alumno de Festinger), documentan en su libro de 2007 “Se cometieron errores (pero yo no fui)” miles de experimentos que demuestran cómo la gente distorsiona los hechos para ajustarlos a sus creencias preconcebidas y de este modo reducir la disonancia. La metáfora de la “pirámide de elección” de Tavris y Aronson, coloca a dos individuos, uno al lado del otro, en el ápice de un pirámide y muestra la rapidez con la que divergen y terminan en las esquinas inferiores opuestas de la base, a medida que cada uno de ellos se apuntala en la posición que defiende.

En una serie de experimentos realizados por el profesor de la Universidad de Dartmouth, Brendan Nyhan, y el profesor de la Universidad de Exeter, Jason Reifler, los investigadores identifican un factor relacionado al que llaman efecto de retroceso, “el cual hace que las correcciones aumenten las percepciones erróneas entre el grupo en cuestión”.

¿Por qué? “Pues porque amenazan su cosmovisión o su autoconcepto”. Por ejemplo, a los sujetos se les dieron falsos artículos periodísticos que confirmaban conceptos erróneos generalizados, tales como la existencia de armas de destrucción masiva en Irak. Cuando a los sujetos se les dio un artículo correctivo sobre las armas de destrucción masiva que nunca fueron encontradas, los liberales que se opusieron a la guerra aceptaron el nuevo artículo y rechazaron los viejos, mientras que los conservadores que apoyaron la guerra hicieron lo contrario … es más: admitieron estar más convencidos de la existencia de las armas después de la corrección, argumentando que eso sólo probaba que Saddam Hussein las ocultó o las destruyó.

De hecho, Nyhan y Reifler percibieron entre muchos conservadores que “la creencia de que Irak poseía armas de destrucción masiva inmediatamente antes de la invasión por parte de Estados Unidos, persistió mucho tiempo después de que la propia administración Bush concluyera lo contrario”.

Pero entonces, si los hechos correctivos sólo empeoran las cosas, ¿qué podemos hacer para convencer a la gente del error de sus creencias?

De acuerdo con la experiencia del autor de este artículo (Michael Shermer), hay que seguir ciertas estrategias:
  • 1 Mantener las emociones al margen durante el debate.
  • 2 Discutir, no atacar (nada de ad hominem ni de ad Hitlerum).
  • 3 Escuchar atentamente y tratar de articular la posición del contrario con precisión.
  • 4 Mostrar respeto.
  • 5 Reconocer que entiendes por qué alguien puede sostener esa opinión.
  • 6 Tratar de mostrar que los hechos cambiantes no implican necesariamente cambios en las visiones del mundo.
Estas estrategias no siempre funcionan a la hora de hacer cambiar de opinión a las personas, pero pueden ayudar a reducir la innecesaria división.



Publicar un comentario