Ilusión de causalidad

De Wiki Pseudociencia
Ir a la navegación Ir a la búsqueda
Definiciones ampliadas
01-Definicion Logo.jpg
Ilusión de causalidad

Las ilusiones de causalidad ocurren cuando las personas desarrollan la creencia de que hay una conexión causal entre dos eventos que en realidad no están relacionados. Tales ilusiones se han propuesto para subyacer la pseudociencia y el pensamiento supersticioso, llevando a veces a consecuencias desastrosas en relación con áreas vitales y críticas, tales como la salud, las finanzas y el bienestar. Como las ilusiones ópticas, pueden ocurrir en cualquier persona bajo condiciones bien conocidas.[1]

Antecedentes

El pensamiento científico es la mejor salvaguarda posible contra esas ilusiones, pero no viene intuitivamente y necesita ser enseñado. La enseñanza de cómo pensar científicamente debe beneficiarse de una mejor comprensión de la ilusión de la causalidad. La investigación sobre la ilusión de la causalidad puede contribuir a la enseñanza del pensamiento científico y éste puede reducir la ilusión.

En el mundo de hoy, hay una creciente tendencia a confiar en creencias personales, supersticiones y pseudociencia más que en evidencia científica. El pensamiento supersticioso, el pensamiento mágico y pseudocientífico se refieren a creencias infundadas que no están apoyadas por la evidencia actual. Muchas de ellos implican ilusiones causales, que son la percepción de una relación causal entre acontecimientos que en realidad no están relacionados. Ejemplos de ilusiones causales se pueden encontrar fácilmente en muchas áreas importantes de la vida cotidiana, incluyendo la economía, la educación, la política y la salud. De hecho, se han sugerido ilusiones causales y sesgos cognitivos relacionados como el exceso de confianza, la ilusión de control y correlaciones ilusorias como base de burbujas financieras[2], estereotipos sociales, comportamiento hostil al manejar, intolerancia social y guerras y problemas de salud pública como el aumento de la popularidad de medicinas alternativas y complementarias.[3]

Por ejemplo, muchos informes han demostrado que la homeopatía no tiene ningún efecto causal en la salud del paciente fuera de un efecto placebo.[4] Aun así, el 34% de los europeos cree que la homeopatía es eficaz. La ilusión de causalidad en este caso surge de intuiciones muy simples basadas en coincidencias: "Tomo el chochito. Me siento mejor. Por lo tanto, el chocho funciona." Muchas personas en el mundo de hoy han llegado a creer que la medicina alternativa es eficaz y que muchas prácticas no apoyadas por la evidencia científica son confiables simplemente porque, según ellos "le funcionan". Es decir, se sienten como si la recuperación hubiera sido causada por el tratamiento.[5] Algunas personas van aún más lejos y prefieren la medicina alternativa por encima de la medicina científica basada en evidencia. Esta actitud está causando serios problemas para muchas personas, incluso la muerte.[6]

A pesar del esfuerzo de los gobiernos y las organizaciones escépticas para promover una sociedad basada en el conocimiento, la eficacia de tales campañas ha sido limitada en el mejor de los casos. Dos de cada cinco europeos son supersticiosos, y más del 35% de los estadounidenses creen en casas embrujas o en la percepción extrasensorial. El pensamiento supersticioso y pseudocientífico parece estar aumentando en varios países europeos (aunque no cambia en otros). México es uno de los paraísos para quienes venden ilusiones y productos milagro. Este tipo de pensamiento a menudo guía las decisiones de salud, financieras y familiares que deben guiarse por el conocimiento contrastado y la evidencia empírica. En el Reino Unido, el Comité de Ciencia y Tecnología de la Cámara de los Comunes (2010) se quejó en un informe de que aunque el Gobierno británico reconoce que "no hay pruebas creíbles de la eficacia de la homeopatía", el Gobierno del Reino Unido sigue financiando la homeopatía y proporcionando licencias que permiten el comercio minorista en farmacias, de modo que "el Gobierno corre el riesgo de apoyar la homeopatía como si fuera un sistema eficaz de medicina". Una situación similar se puede encontrar en la mayoría de los países de América. En Australia, el Consejo Nacional de Salud e Investigación Médica (2015) publicó recientemente un informe exhaustivo que advierte a la gente que "no hay condiciones de salud para las cuales haya pruebas confiables de que la homeopatía es eficaz". Este informe va un paso más allá y trata no sólo de proporcionar evidencia, sino lo más importante, de educar a la gente sobre por qué las creencias y las experiencias personales no son una fuente fiable de conocimiento y por qué los métodos científicos siempre deben usarse a la hora de evaluar la causalidad.

En la era de Internet, cuando tanto la ciencia como la pseudociencia están a un clic de distancia, muchas personas ya no saben en qué creer. El rechazo a la ciencia parece estar creciendo en todo el mundo, y cada vez es más difícil erradicar los mitos una vez que comienzan a propagarse. Hay muchas razones posibles por las que la gente está rechazando la ciencia. La búsqueda de estrategias basadas en evidencia para contrarrestarlas debe convertirse en una prioridad si pretendemos crear campañas y políticas públicas eficaces que puedan cambiar la educación científica. Como lo señalan Bloom y Weisberg (2007), la resistencia a la ciencia se está volviendo particularmente intensa en sociedades donde los puntos de vista pseudocientíficos son transmitidos por personas de confianza (aparente)[7]. Desafortunadamente, los científicos no siempre son considerados como la fuente más confiable en la sociedad porque la gente suele confiar más en amigos, familiares, conductores de televisión, etc. Un ejemplo excelente es la crisis anti-vacunación en 2015 y el hecho de que principalmente los padres ricos y bien educados están decidiendo no vacunar a sus hijos a pesar de las alarmas científicas y gubernamentales. Una de las principales dificultades es que el mostrar a la gente los hechos no es suficiente para erradicar falsas creencias. Esto puede incluso tener a veces el efecto contrario y consolidar el mito. Por otra parte, la enseñanza de los métodos científicos tampoco parece suficiente, ya que muchas preconcepciones ingenuas pueden sobrevivir incluso después de una prolongada formación científica. Sin embargo, aprender a pensar científicamente y utilizar los métodos científicos debería proporcionar al menos una salvaguardia importante contra los sesgos cognitivos. De hecho, los métodos científicos constituyen la mejor herramienta posible, si no la única, que se ha desarrollado para contrarrestar la ilusión de causalidad que puede encontrarse en el centro de muchos de esos problemas. Pero, como se mencionó antes, el pensamiento científico y los métodos científicos no son intuitivos y necesitan ser enseñados y practicados. Una mejor comprensión de cómo funciona la ilusión de la causalidad debería arrojar luz sobre cómo mejorar la enseñanza del pensamiento científico y hacerlo más eficiente para reducir el engaño de la ilusión. En este artículo discutimos cómo se puede hacer la enseñanza del pensamiento científico.

Ilusiones de Causalidad, Contingencia y los Métodos Científicos

Del mismo modo que hay ilusiones ópticas que hacen que las personas vean las cosas más grandes de lo que son o con diferentes formas o colores, hay ilusiones de causalidad que hacen que la gente perciba que un evento causa otro cuando simplemente hay una coincidencia entre ellos. De hecho, al igual que las personas no tienen manera de evaluar el tamaño o el peso con precisión sin usar herramientas especialmente diseñadas (tales como cintas métricas o balanzas), tampoco están preparadas para evaluar la causalidad sin herramientas. Los métodos científicos, particularmente el enfoque experimental, son las herramientas externas que la sociedad ha desarrollado para evaluar la causalidad.

Se podría argumentar que las personas suelen inferir el tamaño, el color o el peso de manera intuitiva, y es cierto que a menudo pueden hacerse relativamente bien, incluso en ausencia de cualquier ayuda externa. Sin embargo, todos sabemos que la gente comete errores. Cuando se enfrenta a una situación importante o crítica en la vida, como comprar una casa o decidir dónde aterrizar un avión, la mayoría de la gente no confía en sus intuiciones, sino que dependerá de ayudas externas como cintas métricas o un GPS. Por este mismo razonamiento, cuando se trata de evaluar la causalidad intuitivamente, las personas a menudo pueden ser relativamente precisas, como se ha demostrado en muchos experimentos. Al mismo tiempo, sin embargo, también se ha demostrado en innumerables experimentos que bajo ciertas condiciones bien conocidas, la gente puede cometer errores flagrantes al juzgar las relaciones causales a simple vista. Incluso los científicos, que están acostumbrados a pensar críticamente y a aplicar metodologías rigurosas en su trabajo, se ha descubierto que a veces desarrollan supersticiones en su vida cotidiana y olvidan que la causalidad no puede ser evaluada con precisión basándose en intuiciones rápidas.[8]

Ejemplos de evaluación intuitiva de la causalidad (a veces correcta, a veces sesgada) se pueden encontrar fácilmente en la vida cotidiana. Una empresa podría iniciar un nuevo programa de capacitación, atraer a más clientes y asumir que el nuevo programa es efectivo. Llevar un amuleto de buena suerte y terminar un juego deportivo ganando, puede llevar a ciertas personas a sentir que el amuleto tuvo un papel crítico en la victoria. Esta tendencia a detectar relaciones causales es tan fuerte que las personas las deducen incluso cuando están racionalmente convencidas de que el mecanismo causal que haría plausible la relación no existe. Como otro ejemplo, su equipo deportivo favorito puede perder el juego si se le olvidó rezar por la victoria. A pesar de saber que no existe una relación causal entre su comportamiento y el resultado del juego, puede sentirse como si fuera un poco responsable de que ese fracaso del equipo pudo haber sido fácil de evitar de haber dedicado unos minutos a orar por la victoria.

Para contrarrestar la ilusión de la causalidad, es esencial comprender que la ilusión no es una cuestión de inteligencia o personalidad. Las ilusiones de causalidad pueden ocurrir para cualquiera, al igual que las ilusiones ópticas. Ocurren por la forma en que la mente humana ha evolucionado: Extrae la causalidad de las coincidencias. Por lo tanto, contrarrestar la ilusión es una cuestión de poder usar las herramientas adecuadas y saber cuándo y cómo usarlas. No podemos pensar en una mejor salvaguarda contra las ilusiones de causalidad que el pensamiento científico, que implica el escepticismo, la duda y la aplicación rigurosa del enfoque experimental.

La idea básica en la investigación del juicio causal es que las personas a menudo necesitan inferir si una relación es causal a través de la observación de casos ambiguos y evidencia incompleta. En las situaciones de aprendizaje sobre causales simples, siempre hay dos eventos: una causa potencial y un resultado, que pueden ser repetidamente emparejados en una serie de ensayos. Cuatro tipos diferentes de ensayos pueden resultar de las posibles combinaciones de la presencia o ausencia de estos dos eventos binarios. Tanto la causa potencial como el resultado pueden ocurrir (ensayos tipo A), la causa puede ocurrir mientras el resultado no (ensayos de tipo B), la causa puede no ocurrir y el resultado todavía producirse (ensayos de tipo C), y finalmente, ni la causa ni el resultado pueden ocurrir (ensayos de tipo D). Estos cuatro tipos de ensayos se muestran en la matriz de contingencia de la Tabla 1.

El índice Δp

El índice Δp ha sido ampliamente aceptado como una medida normativa de contingencia en la que deben basarse las estimaciones subjetivas de causalidad de los participantes.[9] Este índice se calcula como la probabilidad de que el resultado se produzca en presencia de la causa potencial, P (O|C), menos la probabilidad de que ocurra en su ausencia, P (O | ¬C). Estas probabilidades pueden calcularse fácilmente a partir del número de ensayos de cada tipo (A,B, C, D) en la Tabla 1:

Δp = P (O | C) - P (O | ¬C) = [a / (a ​​+ b)] - [c / (c + d)].

Cuando la probabilidad de ocurrencia de un resultado en la presencia de una causa es mayor que aquella sin la causa, Δp es positiva. Esto significa que la causa potencial contribuye a producir el resultado. Por ejemplo, si la probabilidad de recuperación de una enfermedad es mayor cuando las personas toman una píldora que cuando no lo hacen, se sugiere una relación causal y la píldora probablemente promueve la recuperación.

Matriz Contingencia.jpg

Cuando la probabilidad de un resultado sin la causa es mayor que con la causa, Δp es negativa. Esto significa que existe una relación causal, pero en este caso, la causa no genera el resultado, sino que lo impide o inhibe. Por ejemplo, cuando la probabilidad de recuperación es menor cuando las personas toman una píldora que cuando no la toman, existe una relación causal inhibitoria o preventiva: la píldora probablemente está evitando la recuperación.

Lo más interesante para nuestros propósitos actuales son los casos en que la contingencia es nula, lo que significa que la relación causal no existe. La Tabla 2 muestra un ejemplo de una situación ficticia en la que el 80% de los pacientes que toman una píldora dada se recuperan de una enfermedad, pero el 80% de los pacientes que no la toman se recuperan igual de bien. Por lo tanto, el resultado es altamente probable, pero no depende de la presencia o ausencia de la causa potencial. En este y otros casos, las dos probabilidades son idénticas y Δp es por lo tanto 0. En esta situación de contingencia 0, no hay evidencia empírica para suponer que existe una relación causal entre la causa potencial y el efecto. Por lo tanto, si a un número de participantes experimentales se les muestra tal situación y se les pide que den un juicio causal, la respuesta correcta debería ser que no hay relación causal, aunque el resultado pueda ocurrir con mucha frecuencia y los dos eventos puedan coincidir con frecuencia.

Los participantes experimentales a menudo sobreestiman el grado en que la causa potencial está causando el resultado en condiciones de contingencia nula. Esto se conoce como la ilusión de causalidad (o la ilusión de control en casos donde la causa potencial es el comportamiento del participante). Aunque Δp es generalmente aceptada como un índice normativo que describe la influencia de la causa sobre el efecto, es bien sabido que los participantes no siempre basan su estimación de causalidad en Δp. Los participantes utilizarán a veces otros índices, y lo más importante para nuestros propósitos actuales, sus estimaciones pueden ser sesgadas por otras variables no normativas.

Se pueden extraer varias recomendaciones sobre cómo reducir la ilusión de causalidad de los experimentos reportados. En primer lugar, sabemos que la ilusión de causa y efecto será más débil cuando el resultado deseado rara vez ocurre. Aunque esta variable está generalmente fuera de nuestro control en condiciones de contingencia nula, proporciona una señal importante para anticipar las condiciones bajo las cuales es más probable observar supersticiones e ilusiones causales.

La ilusión también será más débil cuando la probabilidad de la causa es baja. Esta es una variable que puede ser controlada y ha mostrado afectar la ilusión de causalidad en muchos experimentos en muchos laboratorios diferentes. Por lo tanto, se puede utilizar para reducir la ilusión.[10]

Los anuncios de productos específicos sólo mencionan los casos en que la causa está presente (uso del producto) y el producto funciona de manera eficaz (Tabla 1). Por lo tanto, una estrategia muy simple que los gobiernos podrían utilizar es asegurarse de que los datos de esos casos, sin la causa potencial, también se presenten durante esas campañas de mercadeo. Una estrategia relacionada y aún mejor que los gobiernos deben usar es enseñar a la gente cómo usar los datos. Los gobiernos podrían enseñar a la gente a darse cuenta de que necesitan pedir información sobre los casos de causa ausente cuando dicha información no estéá disponible. En otras palabras, los gobiernos podrían enseñar a las personas (no sólo a los estudiantes de ciencias) cómo hacer un mejor uso del pensamiento científico en su vida cotidiana.

Los experimentos también mostraron que el efecto de la probabilidad de la causa (sesgo de la causa-densidad) también se observa indirectamente cuando alguien está deprimido porque se encuentra en estado más pasivo. Por extensión, este efecto también se observa bajo cualquier otra condición que pueda hacer que las personas reduzcan su tendencia por defecto a introducir una causa en casi cualquier ocasión. Otros ejemplos son casos en los que la causa potencial es costosa o tiene efectos colaterales no deseados. La gente no introduce la causa a menudo en esos casos y, por lo tanto, puede aprender lo que sucede cuando no hacen nada. Del mismo modo, la ilusión es también más débil cuando la gente sólo está observando la causa y el efecto ocurre al mismo tiempo que cuando su propio comportamiento es la causa potencial. Por otra parte, la ilusión es más fuerte cuando la gente está tratando de obtener un resultado, como cuando un médico en una sala de emergencia está tratando de ayudar a los pacientes. Esto contrasta con los casos de personas que tratan de encontrar su grado de causalidad, como cuando un científico está probando el efecto de una droga en un problema de salud.

Además, hay casos en los que los resultados se invierten, como cuando la causa es seguida por un evento no deseado, como en las condiciones de castigo. También hay casos en los que se aplican los principios de la competencia de referencia porque hay más de una causa potencial, con algunas causas que impiden la atribución a otras causas que se producen simultáneamente. Estos efectos de competencia reducen la ilusión en algunos casos y la realzan en otros. Esto significa que hay muchas variables que son actualmente muy conocidas, han sido probadas en muchos experimentos y tienen efectos predecibles. Por lo tanto, podemos anticipar los casos que producirán una ilusión más fuerte o más débil en la mayoría de las personas. Este conocimiento se podría utilizar para volver a la gente más alerta cuando las ilusiones son más probables. También sabemos por los experimentos que en todos los casos la ilusión puede reducirse si se enseña a las personas a reducir la probabilidad de introducir la causa potencial aprendiendo los principios básicos del control científico y el paradigma experimental.

Con esto en mente, se puede esbozar una estrategia educativa como un ejemplo de lo que se podría hacer para proporcionar a los adolescentes una herramienta para ser menos vulnerables a la ilusión de causalidad. La idea básica no es nueva. Debe consistir en enseñar cómo pensar críticamente y aplicar principios científicos básicos a áreas de su propio interés. El procedimiento incluye una estrategia para motivar a los adolescentes a aprender a protegerse de sus propios sesgos. Esta es una parte crítica de la enseñanza del pensamiento científico. Muchas personas no tienen interés en aprender sobre el pensamiento científico porque no son conscientes de que necesitan corregir sus propios sesgos en su vida cotidiana. Sin embargo, una vez que se muestra a la gente cuán falibles son sus intuiciones, deben estar dispuestas a aprender sobre las herramientas para prevenir errores. Una manera de motivar a la gente es derrotándolos antes de ofrecer un tutorial. Otra es mostrándoles ejemplos de sus supersticiones comunes, pseudociencias y mitos para que puedan aprender cuál es su error y cómo usar el pensamiento científico para superar ese error.[11]

Veamos, controlar la probabilidad de la causa potencial es un factor muy importante en la reducción de la ilusión, y se ha demostrado en muchos experimentos diferentes. De hecho, este enfoque está en el centro del método experimental. Si observamos cómo los científicos manipulan la probabilidad de una causa cuando realizan un experimento, podrían evitar tener 50 participantes en un grupo y 5 en otro, o podrían tratar de dar a los grupos causa-presente y causa-ausente un peso y tamaño similar. Sin embargo, esto obviamente no es el único factor. La reducción de los sesgos cognitivos y de las creencias no fundadas ha sido demostrada mediante el fomento de un estilo de pensamiento más analítico, en oposición al de una forma de pensar intuitiva por defecto, rápida y emocional en situaciones que no están necesariamente contaminadas con una alta probabilidad de la causa potencial. Esto incluye una reducción en las creencias religiosas y teleológicas, así como una reducción de varios prejuicios cognitivos tales como el sesgo de confirmación. Las investigaciones preliminares sugieren que este enfoque basado en la literatura sobre sesgos cognitivos generales también puede ayudar a reducir la ilusión de causalidad.

Como Lilienfeld et al. (2009) ha hecho notar, el diseño de una estrategia mundial para reducir los sesgos cognitivos sería la mayor contribución que la psicología podría hacer a la humanidad, ya que eliminaría tanto sufrimiento e intolerancia.[12] Se han revisado algunas de las pruebas acerca de dos de estos sesgos -la ilusión de causalidad y la ilusión de control- y cómo se pueden reducir. Por supuesto, esto no quiere decir que el pensamiento analítico sea siempre preferible a la intuición rápida. Como muchos ya han señalado, hay veces en que los juicios intuitivos son más precisos que los analíticos. Por lo tanto, el objetivo de enseñar métodos científicos no sólo debe dominar la capacidad de pensar científicamente, sino quizá lo más importante, la capacidad de detectar cuando se debe usar este modo de pensar.

Véase también

Referencias y ligas externas

(Nota de la administración) Algunas ligas podrían estar rotas o algunos videos pueden haber sido eliminados.

  1. Matute H, Blanco F, Yarritu I, Díaz-Lago M, Vadillo MA & Barberia I (2015). Illusions of causality: how they bias our everyday thinking and how they could be reduced. Front. Psychol. 6:888. doi: 10.3389/fpsyg.2015.00888
  2. Malmendier, U. & Tate, G. A. (2005). CEO overconfidence and corporate investment. J. Finance 60, 2661–2700. doi: 10.1111/j.1540-6261.2005.00813.x
  3. Matute, H., Yarritu, I. & Vadillo, M. A. (2011). Illusions of causality at the heart of pseudoscience. Br. J. Psychol. 102, 392–405. doi: 10.1348/000712610X532210
  4. National Health and Medical Research Council. (2015). NHMRC Statement on Homeopathy and NHMRC Information Paper: Evidence on the Effectiveness of Homeopathy for Treating Health Conditions. (NHMRC Publication No. CAM02).
  5. Lilienfeld, S. O., Ritschel, L. A., Lynn, S. J., Cautin, R. L., & Latzman, R. D. (2014). Why ineffective psychotherapies appear to work: a taxonomy of causes of spurious therapeutic effectiveness. Perspect. Psychol. Sci. 9, 355–387. doi: 10.1177/1745691614535216
  6. Freckelton, I. (2012). Death by homeopathy: issues for civil, criminal and coronial law and for health service policy. J. Law Med. 19, 454–478.
  7. Bloom, P., & Weisberg, D. S. (2007). Childhood origins of adult resistance to science. Science 316, 996–997. doi: 10.1126/science.1133398
  8. Wiseman, R., and Watt, C. (2006). Belief in psychic ability and the misattribution hypothesis: a qualitative review. Br. J. Psychol. 97, 323–338. doi: 10.1348/000712605X72523
  9. Allan, L. G., Siegel, S., & Tangen, J. M. (2005). A signal detection analysis of contingency data. Learn. Behav. 33, 250–263. doi: 10.3758/BF03196067
  10. Allan, L. G., and Jenkins, H. M. (1983). The effect of representations of binary variables on judgment of influence. Learn. Motiv. 14, 381–405. doi: 10.1016/0023-9690(83)90024-3
  11. Schmaltz, R., & Lilienfeld, S. O. (2014). Hauntings, homeopathy, and the Hopkinsville Goblins: using pseudoscience to teach scientific thinking. Front. Psychol. 5:336. doi: 10.3389/fpsyg.2014.00336
  12. Lilienfeld, S. O., Ammirati, R., & Landfield, K. (2009). Giving debiasing away. Can psychological research on correcting cognitive errors promote human welfare? Perspect. Psychol. Sci. 4, 390–398. doi: 10.1111/j.1745-6924.2009.01144.x