Análisis bayesiano

De Wiki Pseudociencias
Artículos sobre
Ciencia

El "bayesianismo" es una perspectiva filosófica relativamente nueva sobre la Ciencia que tiene sus raíces en una vieja y, hasta hace poco, bastante oscura manera de pensar acerca de las probabilidades que fue inventada por el reverendo Thomas Bayes en 1763. Esta es una visión que está ganando el favor entre científicos y filósofos por igual, y aclara maravillosamente muchos malentendidos comunes que los científicos y el público en general parecen tener sobre la naturaleza de la ciencia; los mismos malentendidos que llevan a la gente a la aceptación acrítica de la ciencia o al rechazo irracional de la misma.

Bayes se dio cuenta de que cuando consideramos la probabilidad de que una hipótesis sea verdadera, basamos nuestro juicio en nuestros conocimientos previos pertinentes a la hipótesis en cuestión y los fenómenos que se pretenden explicar (es decir, utilizamos lo que los filósofos llaman razonamiento inductivo). Luego evaluamos nueva información a la luz de este conocimiento previo y modificamos nuestra creencia de que la hipótesis sea verdadera (o no) sobre la base tanto de dicho conocimiento previo como de la nueva información. Este proceso puede repetirse indefinidamente, de modo que el grado de confianza que se tenga sobre cualquier hipótesis es siempre una función del equilibrio actual (y siempre cambiante) entre lo que conocíamos antes y el nuevo conocimiento que aportan datos adicionales.

Algoritmo Bayesiano

Es fácil expresar las ideas de Bayes en una simple fórmula matemática (o teorema de Bayes). Esta es una ecuación que es fácil de entender y que puede cambiar la forma en que la gente piensa acerca de cómo funciona la ciencia y, de manera más general, cómo evalúa sus creencias. La ecuación es conocida como la regla de Bayes, y se ve así:

Dónde

  • P(H|D) (que se lee, "la probabilidad de H, dada D") es la probabilidad de que la hipótesis sea correcta dada la información disponible;
  • P(D|H) es la probabilidad de que los datos serán observados si la hipótesis es correcta;
  • P (H) es la probabilidad incondicional de la hipótesis (es decir, su probabilidad antes de conocer la nueva información).

El denominador repite el numerador con la adición de un término equivalente que incluya la probabilidad de observar los datos si la hipótesis es incorrecta y la probabilidad incondicional de que la hipótesis sea errónea. (En el caso más frecuente cuando se consideran al mismo tiempo hipótesis múltiples, el denominador incluye las probabilidades de observar los datos dadas cada hipótesis adicionales, así como las probabilidades incondicionales asociadas a cada hipótesis alternativa, el símbolo ~ significa "no"). El denominador del lado derecho de la ecuación también se conoce como probabilidad de que se consideren todas las hipótesis. El lado izquierdo de la ecuación se denomina probabilidad posterior de la hipótesis examinada; la parte izquierda del numerador (en el lado derecho de la ecuación), P(D|H), se conoce como probabilidad condicional de la hipótesis en cuestión; y la parte derecha del mismo numerador, P (H), se denomina probabilidad previa de la hipótesis considerada. Esto suena muy complicado hasta que examinamos un ejemplo particular.

Una familia tiene planes de ir a pescar el domingo por la tarde, pero sus planes dependen del clima del mediodía del domingo: si es soleado, hay un 90 por ciento de posibilidades de ir a pescar; si está nublado, la probabilidad de que vayan a pescar cae al 50 por ciento; y si está lloviendo, la probabilidad de ir cae al 15 por ciento (estas estimaciones de probabilidad no necesitan ser precisas para que el sistema funcione).

La predicción del tiempo en el momento en que consideramos la situación requiere un 10 por ciento de probabilidad de lluvia, un 25 por ciento de probabilidad de nubes y un 65 por ciento de probabilidad de sol. La pregunta es: dado que sabemos que la familia al final fue a pescar (los datos), ¿estuvo el tiempo soleado, nublado o lluvioso (las tres hipótesis)? Es probable que una persona cualquiera tenga sus intuiciones acerca de esto, y bien pueden ser correctas. Pero la ciencia debe ir más allá de la intuición y del razonamiento empírico.

Así es como Bayes resolvería el problema:

Vamos a conectar nuestra evaluación preliminar de la situación en la Regla de Bayes:

  • La probabilidad de ir a pesca (F) si está soleado (S), P(F|S) = 0.90
  • La probabilidad de ir a pesca si está nublado (N), P (F|N) = 0.50
  • La probabilidad de pesca si es lluvioso (L), P (F | L) = 0.15

La probabilidad de cada tipo de clima, dada las predicciones del informe meteorológico, se puede resumir como sigue:

La probabilidad de un tiempo soleado, P (S) = 0.65

  • La probabilidad de tiempo nublado, P (N) = 0.25
  • La probabilidad de tiempo lluvioso, P (L) = 0.10

Obsérvese que la suma de las probabilidades de cada condición climática es la unidad: 1 (es decir, 100%): P (S) + P (N) + P (L) = 0.65 + 0.25 + 0.10 = 1.00. También tenga en cuenta que estas hipótesis son mutuamente excluyentes en el sentido de que estaba soleado o nublado o lluvioso, pero no una combinación de estos. La probabilidad general de ir a pescar (el denominador del lado derecho de la regla de Bayes), P (F) es 0.725: [P (F|S) × P (S)] + [P (F|N) )] + [P (F|L) × P (L)] = (0.90 x 0.65) + (0.50 x 0.25) + (0.15 x 0.10).

Ahora podemos obtener las conclusiones actualizadas sobre nuestras hipótesis acerca del tiempo, teniendo en cuenta la información previa y la nueva (esta última es que la familia fue en verdad a pescar). Así que, dado que la familia fue a pescar, según la Regla de Bayes, la probabilidad de que el tiempo fuera soleado es la siguiente:

P (S|F) = [P (F|S) x P (S)] / P (F) = (0.90 x 0.65) / 0.725 = 0.807

La probabilidad de que el tiempo estuviera nublado es la siguiente:

P (N|F) = [P (F|N) x P (N)] / P (F) = (0.50 x 0.25) / 0.725 = 0.172

Y la probabilidad de que el tiempo estuviera lluvioso es la siguiente:

P (L|F) = [P (F|L) x P (L)] / P (F) = (0.15 x 0.10) / 0.725 = 0.021

Por último, notar que P (S|F) + P (N|F) + P (L|F) = 0.807 + 0.172 + 0.021 = 1.00, esto es porque solo una de las hipótesis debe ser verdadera (o estaba soleado, o nublado, o lluvioso; no hay otras posibilidades en la mezcla).

La regla de Bayes, por lo tanto, nos dice que -dado el conocimiento previo de la situación que teníamos y la nueva información de que la familia fue a pescar- la probabilidad de que el tiempo fuera soleado fue la más alta.

Aunque cualquier persona, podría haber adivinado eso. Sí, en este sencillo caso. Pero note que la regla de Bayes le da información adicional: primero, le dice cuál es la mejor estimación disponible de las probabilidades de las tres hipótesis. En consecuencia, le dice lo seguro que puede estar de que el clima estaba soleado (lo cual es mejor que simplemente decir "es más probable"). Además, de las ecuaciones se desprende claramente que la probabilidad de la hipótesis de que el tiempo estaba soleado aumentó con la nueva información (de 0.65 a 0.807), lo que debería aumentar su confianza en que la hipótesis de una condición meteorológica con día soleado es la correcta. Por último, el teorema de Bayes nos recuerda que nuestro grado de confianza en cualquier hipótesis nunca es ni 0 ni 100%, aunque puede acercarse a esos extremos: las hipótesis científicas son siempre provisionales.

El análisis bayesiano es una buena metáfora (algunos filósofos de la ciencia dirían una buena descripción) de cómo funciona realmente la ciencia, una posición mejor conocida como bayesianismo (para distinguir la filosofía de la teoría de las probabilidades). Por otra parte, es una buena descripción de cómo resulta cualquier investigación racional en el mundo si se basa en una combinación de hipótesis y datos. El científico (y, en general, la persona que piensa racionalmente) siempre evalúa varias hipótesis sobre la base de su comprensión y conocimientos previos, por una parte, y de la nueva información recopilada por la observación o la experimentación, por otra. Su juicio sobre la validez de una teoría cambia constantemente, aunque muy rara vez lo hace de manera dramática. El análisis bayesiano muestra claramente por qué es irracional sostener posiciones extremas en la mayoría de los asuntos empíricos: si sus priores son 0 o 1, sus conclusiones son impermeables a la nueva información, y no cambiarán sin importar lo que digan los datos; es decir, se toman y aceptan por fe.

Cuando combinamos ideas sensatas sobre la crítica social de la ciencia con las de los cambios de paradigma, el perspectivismo y las operaciones bayesianas, llegamos a una visión razonable de la ciencia: sí, es una actividad humana subjetiva afectada por los caprichos psicológicos y sociales; pero, al mismo tiempo no, no es una actividad arbitraria, y sí progresa, aunque siempre de forma tentativa y de una manera constantemente sometida a la posibilidad de revisión. Esto, al menos, es lo que podemos deducir de lo que nos dicen los expertos en ciencia, sociología y filosofía.[1]

Véase también

He aquí un ejemple de cómo no debe ser usado el análisis de Bayes:

Referencias y ligas externas

(Nota de la administración) Algunas ligas podrían estar rotas o algunos videos pueden haber sido eliminados.

  1. Massimo Pigliucci (2010) Nonsense on Stilts: How to Tell Science from Bunk. The University of Chicago Press. ISBN 978-0-226-66786-7.
P
Artículos científicos
AlopatíaAnálisis bayesianoApofeniaArgumento del equilibrio de SaganBisociaciónCambio de paradigma Cero absolutoCienciaCiencia históricaDetección de falso conocimientoCorrelaciónDisonancia cognitivaEfecto placeboEfecto noceboEnsayo controlado aleatorioEscándalo SokalEstudio de cohortesEstudio doble ciegoExperimento RosenhanExtrapolación de datosEvoluciónFalsabilidadGráfico de embudoHipertrofia de la cognición socialLa prueba de cuatro partesMáquina de movimiento perpetuoMáquina del tiempoMedicina alternativa y cáncerMetaanálisisMetaanálisis de la homeopatíaModelo científicoMonismoNada (concepto)Navaja de OccamParadoja de los gemelosParadoja de OlbersPareidoliaPrincipio antrópicoProblema del archiveroProtocienciaReglas de LangmuirRegresión a la mediaRevisión por paresSesgo de confirmaciónViaje en el tiempo
Efectos y leyes no homologadas
Efecto calzadorEfecto de amortiguamiento escépticoEfecto de ilusión de verdadEfecto dominóEfecto Dunning-KrugerEfecto felpudoEfecto FeuersteinEfecto ForerEfecto GauquelinEfecto haloEfecto HawthorneEfecto Jeane DixonEfecto Jenny McCarthyEfecto mariposaEfecto StreisandLey de AverakLey de BetteridgeLey de GodwinLey de HaggardLey de la controversia de BenfordLey de los grandes númerosLeyes de Clarke
Sobre el Método Científico
HipótesisHipótesis nulaLey científicaMétodo científicoTeoríaTeoría y ley