El mercado de las ideas (II)

(viene de la parte I)

3. La paradoja de la irracionalidad pública

El público no posee suficiente alfabetización científica. Por lo tanto, no evalúan los riesgos en el marco de la evidencia científica, sino en base a creencias o factores subjetivos. Sin embargo, una mayor alfabetización científica no conduce necesariamente a mejorar este comportamiento.

Es cierto que el abuso del “oráculo gugeliano” sin los adecuados filtros críticos puede traer mucha confusión y desinformación. Lo normal es pensar que una suficiente alfabetización científica pone en marcha estos filtros, pero la última encuesta de la FECYT sobre percepción social de la ciencia no apunta en esa dirección: hay más personas que creen en la eficacia de la acupuntura y la homeopatía entre titulados universitarios que entre los que poseen sólo estudios primarios o incompletos.





Esto no puede explicarse satisfactoriamente apelando a la falta de cultura científica, pues hechos como que un bioquímico defienda el diseño inteligente, que un buen número de colegios médicos sigan albergando falsas terapias o, en mi caso sin ir más lejos, que el catedrático que me impartió Química en la universidad me recomendara cobre homeopático para una infección de garganta, no es probable que sucedan por falta de alfabetización científica.

La respuesta puede estar en un efecto persuasivo conocido como falsificación de conocimiento, según el cual las personas llegan a boicotear lo que saben para adoptar una postura contraria, si esta postura es respaldada por un colectivo en el que se confía (médico, farmacéutico, académico) o en el que consideramos importante mantener nuestra reputación. Esto ha sido observado innumerables veces en el conocido como experimento de Asch. 



En este sentido, me identifico con lo que expresa Javier Yanes en este artículo: “no siento vocación de azote de herejes”. Este periodista y doctor en Bioquímica y Biología Molecular también llega a la misma conclusión: dar crédito a pseudociencias no es una cuestión educativa o de formación científica. Y ha llegado a ella tras preocuparse de lo que neurocientíficos y psicólogos tienen que decir sobre nuestra tendencia a creer en patrañas. El neurocientífico Dean Burnett ofrece muchos ejemplos en su libro, El cerebro idiota, de que esa habilidad para ignorar la realidad y acogernos a supersticiones e intuiciones infundadas forma parte del funcionamiento normal de un cerebro sano. Para ilustrar estas atrevidas afirmaciones, veamos qué sucede cuando la opinión pública se enfrenta a la percepción del riesgo en diferentes situaciones. 

Las cuestiones analizadas en cada una de las siguientes nueve gráficas son, respectivamente, calentamiento global, posesión privada de armas, fracking, colorantes alimentarios, exposición a ondas de telefonía móvil, alimentos genéticamente modificados, exposición a instalaciones de alta tensión, uso de edulcorantes y nanotecnología. Y las variables que se enfrentan son percepción del riesgo (eje vertical) y alfabetización científica (eje horizontal).







Las seis gráficas inferiores cumplen, en mayor o menor grado, la previsión de científicos y divulgadores: a medida que la alfabetización científica aumenta, la percepción de riesgos como los alimentos genéticamente modificados o la exposición a ondas de telefonía móvil, va disminuyendo. Parece lógico. Pero en las tres gráficas superiores la predicción se va al traste. La percepción del riesgo en estos tres casos está fuertemente influenciada por la ideología política (liberales vs conservadores), y por si fuera poco, el aumento de alfabetización científica provoca posturas aún más extremas en los casos del fracking y del calentamiento global.

No resulta muy plausible pensar que esta discrepancia se deba a que el público tenga mayor alfabetización científica en nanotecnología que en calentamiento global. Entonces, ¿qué provoca la diferencia? Busquemos pistas en la siguiente imagen.





Al observar las mismas cuestiones anteriores pero enfrentando la percepción del riesgo (eje vertical) con la ideología política (eje horizontal), destaca que, mientras en las seis gráficas inferiores la percepción del riesgo es casi independiente de la simpatía ideológica, en las tres gráficas superiores la determina claramente. En este caso, la percepción de riesgo disminuye a medida que la preferencia política se desplaza hacia lo conservador. 

Lo que este análisis sugiere es que la mayor cultura científica es un factor poco determinante cuando se trata de temas con especial polémica (los de las tres gráficas superiores), bien porque genera considerable preocupación entre el público, bien porque el debate social se encuentra muy polarizado. En los temas no sujetos a polémica (los de las seis gráficas inferiores), contar con una mejor alfabetización científica causa el efecto previsto: hace disminuir la percepción de riesgo.


Cuando el divulgador despertó, la creencia todavía estaba allí. Polémica y polarización de grupo

La gente no apoya determinada información porque piense que es cierta, sino porque carece de una razón crítica para creer que es falsa. Esta actitud se suele atribuir (una vez más) a la falta de cultura científica y, por lo tanto, a un escaso escepticismo que no les anima a comprobar la fiabilidad de la información. Sin embargo, el público tiene otras razones para no adoptar la sana duda del escepticismo y se puede explicar mediante la polarización de grupo.

Durante el verano de 2005, se realizó un experimento en el estado de Colorado sobre el poder de la democracia (1). A 60 ciudadanos se les pidió que reflexionaran sobre uno de los temas más controvertidos de la actualidad: el calentamiento global. Se les dividió en diez grupos de debate de seis personas cada uno, de modo que en cada grupo se dispusieron de modo equitativo los miembros de tendencia liberal y conservadora tras recabar sus opiniones previas al debate.

Concluida la discusión, en casi todos los grupos los miembros sostuvieron posiciones mucho más extremas que antes del debate. Los liberales, favorables a un tratado internacional para controlar el calentamiento global, lo apoyaban con más intensidad; los conservadores, recelosos ante la idea del tratado, lo rechazaban con más firmeza. Además, los grupos se volvían más homogéneos tras sólo 15 minutos de debate. La diversidad de opiniones, que propició bastantes desacuerdos al principio, desaparecía casi por completo.

Esta es la polarización de grupo en plena acción: la deliberación entre personas afines consolida las creencias previas, de modo que acaban adoptando una postura más extrema que antes del debate.


4. La paradoja entre ciencia y retórica

Los antiguos pretendían que el logos, el razonamiento en su forma más pura, fuera el único elemento efectivo de un argumento. Así lo consideraba Platón, pero Aristóteles concibió lo que su maestro deploraba: el razonamiento es una débil voz zarandeada por el efecto de la emoción y la persuasión.

Un artículo científico es el único lugar donde debe aceptarse el uso del lenguaje para transmitir información sin más. En cualquier otro ámbito, incluido el de la divulgación científica, empleamos el lenguaje para seducir, impresionar, inspirar, encomiar o justificar. La retórica es lo que da poder a las palabras.

En 2008, ante los rumores falsos que se propagaban sobre el entonces senador, Barack Obama puso en marcha una página web llamada “Lucha contra las calumnias” donde identificaba y desacreditaba tales rumores. La campaña tuvo éxito, entre otras cosas, porque catalogaba explícitamente como “calumnias” los hechos que se le atribuían, con lo que predisponía al público para no otorgarles credibilidad. Esto me hace pensar en el flaco favor que el término “pseudociencia” le hace a la ciencia para tratar de desmontar creencias falaces.

Aunque el vocablo “pseudociencia” ya se empleaba a finales del siglo XVIII para referirse a la alquimia, el concepto como se entiende en la actualidad surgió a mitad del siglo XIX. François Magendie, creador del primer laboratorio de fisiología de Francia, pretendía devolver a la medicina de su época el prestigio social que poseían otras ciencias, lo que implicaba adoptar una postura contra teorías falsas como el vitalismo, que postulaba una “fuerza o impulso vital” para distinguir la materia viva de la inerte. Así, en 1843, se refiere a la frenología como “una pseudociencia de hoy en día”.




El lenguaje importa, y catalogar como “pseudociencia” al conjunto de creencias, teorías y prácticas con una impostada base científica, las sitúa junto a la ciencia y obliga a levantar un muro para separarla de ella. Esto no da un mensaje contundente al público como lo daría si se calificaran, llanamente, de falsedades o mentiras. Los ciudadanos tienen que percibir que la pseudociencia tiene mucho más que ver con una estafa piramidal que con la ciencia real. Es necesario utilizar la capacidad persuasiva del lenguaje.


(continúa en parte III)


______________________________________________
(1) Cass R. Sunstein (2010). Rumorología. Barcelona: Random House Mondadori. p. 40.

Comentarios