La prueba exacta de Fisher es una prueba de significación estadística utilizada en el análisis de las tablas de contingencia. [1] [2] [3] Aunque en la práctica se emplea cuando los tamaños de muestra son pequeños, es válido para todos los tamaños de muestra. Lleva el nombre de su inventor, Ronald Fisher, y es una de una clase de pruebas exactas, llamada así porque la importancia de la desviación de una hipótesis nula (por ejemplo, valor p) se puede calcular exactamente, en lugar de depender de una aproximación. Eso se vuelve exacto en el límite a medida que el tamaño de la muestra crece hasta el infinito, como con muchas pruebas estadísticas.
Se dice que Fisher ideó la prueba después de un comentario de Muriel Bristol, quien afirmó poder detectar si el té o la leche se agregaron primero a su taza. Él probó su reclamo en el experimento de «té de sabor». [4]
La prueba es útil para datos categóricos que resultan de clasificar objetos de dos maneras diferentes; Se utiliza para examinar la importancia de la asociación (contingencia) entre los dos tipos de clasificación. Entonces, en el ejemplo original de Fisher, un criterio de clasificación podría ser si la leche o el té se colocaron primero en la taza; El otro podría ser si Bristol piensa que la leche o el té se pusieron primero. Queremos saber si estas dos clasificaciones están asociadas, es decir, si Bristol realmente puede decir si primero se vierte la leche o el té. La mayoría de los usos de la prueba de Fisher implican, como este ejemplo, una tabla de contingencia 2 × 2 (que se analiza a continuación). El valor p de la prueba se calcula como si los márgenes de la mesa fueran fijos, es decir, como si, en el ejemplo de degustación de té, Bristol conoce la cantidad de tazas con cada tratamiento (leche o té primero) y, por lo tanto, proporcionará conjeturas con el número correcto en cada categoría. Como lo señaló Fisher, esto conduce bajo una hipótesis nula de independencia a una distribución hipergeométrica de los números en las células de la tabla.
¿Cómo se interpreta la prueba exacta de Fisher?
Use la prueba exacta de independencia de Fisher cuando tenga dos variables nominales y desea ver si las proporciones de una variable son diferentes dependiendo del valor de la otra variable. Úselo cuando el tamaño de la muestra sea pequeño.
Use la prueba exacta de Fisher cuando tenga dos variables nominales. Desea saber si las proporciones para una variable son diferentes entre los valores de la otra variable. Por ejemplo, Van Nood et al. (2013) estudiaron pacientes con infecciones por Clostridium difficile, que causan diarrea persistente. Una variable nominal fue el tratamiento: algunos pacientes recibieron la vancomicina antibiótica, y algunos pacientes recibieron un trasplante fecal. La otra variable nominal fue el resultado: cada paciente fue curado o no curado. El porcentaje de personas que recibieron un trasplante fecal y se curaron (13 de 16, u 81%) es mayor que el porcentaje de personas que recibieron vancomicina y se curaron (4 de 13, o 31%), lo que parece prometedor, Pero los tamaños de muestra parecen un poco pequeños. La prueba exacta de Fisher le dirá si esta diferencia entre el 81 y el 31% es estadísticamente significativa.
Un conjunto de datos como este a menudo se llama «Tabla R × C», donde R es el número de filas y C es el número de columnas. Los datos de trasplante fecal versus vancomicina que estoy usando como ejemplo es una tabla 2 × 2. Van Nood et al. (2013) en realidad tuvieron un tercer tratamiento, 13 personas recibieron vancomicina más un lavado intestinal, lo que hace que el total de datos establece una tabla 2 × 3 (o una tabla 3 × 2; no importa a qué variable llame las filas y cuál es la columnas). El uso más común de la prueba exacta de Fisher es para tablas 2 × 2, por lo que eso es principalmente lo que describiré aquí.
La prueba exacta de Fisher es más precisa que la prueba de chi-cuadrado o la prueba G de la independencia cuando los números esperados son pequeños. Le recomiendo que use la prueba exacta de Fisher cuando el tamaño total de la muestra es inferior a 1000, y use el chi-cuadrado o la prueba G para tamaños de muestra más grandes. Consulte la página web en pequeños tamaños de muestra para una discusión más detallada de lo que significa ser «pequeño».
La hipótesis nula es que las proporciones relativas de una variable son
independiente de la segunda variable; en otras palabras, las proporciones en una
La variable es la misma para diferentes valores de la segunda variable. En el ejemplo de C. difficile, la hipótesis nula es que la probabilidad de curarse es la misma si recibe un trasplante fecal o vancomicina.
¿Cómo se interpreta la prueba de Fisher?
Estoy ejecutando algún código R, donde me gustaría verificar si algunos datos son independientes. Podría usar una prueba de chi-cuadrado, que rechaza la independencia. Sin embargo, me gustaría usar la prueba de Fisher-Exact. Una vez más p <0.001 pero ¿cómo debo interpretar esta probabilidad?
La prueba exacta de Fisher en R por defecto prueba si la relación de probabilidades asociada con la primera célula es 1 o no.
Dicho esto, puede interpretar el odds ratio 0.53 como: las probabilidades de ser hombre para un tema no sobre el sujeto son 0.53 veces que para un tema demasiado pesado. Tenga en cuenta que el valor p es significativo y el intervalo de confianza no contiene 1. Por lo tanto, rechaza la hipótesis nula de la probabilidad de ser 1.
Sin embargo, es posible que desee intercambiar las columnas y filas de la tabla de contingencia 2 por 2, para que pueda interpretar el «sexo» como una variable explicativa y «sobrepeso o no» como respuesta, lo que parece más naturaleza. En este caso, la estimación de la probabilidad aún debe ser 0.53. Pero puede interpretarlo más naturalmente como: las probabilidades de no ser sobrepeso para una persona masculina son 0.53 veces que para una persona femenina.
La probabilidad es una medida de cuán lejos de la independencia está la tabla 2×2.
En su problema, la odds ratio es P (sobrepeso | hembra)/(1-P (sobrepeso | hembra)) (probabilidades de sobrepeso para mujeres) divididas por P (sobrepeso | masculino)/(1-P (sobrepeso | hombre) ) (probabilidades de sobrepeso para hombres). Al ser una proporción de dos conjuntos de probabilidades, se llama una odds ratio.
Si la tabla se extrae de una población donde los factores son independientes, esas dos probabilidades de población serán iguales, por lo que la probabilidad de la población será 1 (o la relación de probabilidades de registro será 0).
¿Qué significa el valor de Fisher?
Donde Pi es el valor p para la prueba de hipótesis. Cuando los valores p tienden a ser pequeños, la estadística de prueba X2 será grande, lo que sugiere que las hipótesis nulas no son ciertas para cada prueba.
Cuando todas las hipótesis nulas son ciertas, y las PI (o sus estadísticas de prueba correspondientes) son independientes, X2 tiene una distribución de chi cuadrado con 2kdegrees de libertad, donde K es el número de pruebas que se combinan. Este hecho se puede usar para determinar el valor p para X2.
La distribución de X2 es una distribución de chi cuadrado por la siguiente razón; Bajo la hipótesis nula para la Prueba I, el valor P PI sigue una distribución uniforme en el intervalo [0,1]. El logaritmo negativo de un valor distribuido uniformemente sigue una distribución exponencial. Escalar un valor que sigue una distribución exponencial por un factor de dos rendimientos de una cantidad que sigue a una distribución de chi cuadrado con dos grados de libertad. Finalmente, la suma de K valores chi cuadrado independientes, cada uno con dos grados de libertad, sigue una distribución de chi cuadrado con 2k grados de libertad.
La dependencia entre las pruebas estadísticas es generalmente positiva [vaga], lo que significa que el valor p de X2 es demasiado pequeño (anticonservativo) si la dependencia no se tiene en cuenta. Por lo tanto, si el método de Fisher para pruebas independientes se aplica en un entorno dependiente, y el valor p no es lo suficientemente pequeño como para rechazar la hipótesis nula, entonces esa conclusión continuará manteniéndose incluso si la dependencia no se explica correctamente. Sin embargo, si no se tiene en cuenta la dependencia positiva, y el valor p del metanálisis es pequeña, la evidencia contra la hipótesis nula generalmente se exagera. La tasa media de descubrimiento falso, α (k+1)/(2k) { displayStyle alpha (k+1)/(2k)}, α { displayStyle alpha} reducido para k pruebas independientes o correlacionadas positivamente, puede ser suficiente Para controlar el alfa para una comparación útil con un valor p demasiado pequeño de Fisher’s X2.
En los casos en que las pruebas no son independientes, la distribución nula de X2 es más complicada. Una estrategia común es aproximar la distribución nula con una variable aleatoria de distribución χ2 escalada. Se pueden usar diferentes enfoques dependiendo de si se conoce o no la covarianza entre los diferentes valores p.
¿Qué identifica la prueba exacta?
La mayoría de las pruebas rápidas de Corona reconocen la variante Omikron, así como la variante delta. Sin embargo, en parte de las pruebas, todavía no está claro si también son adecuados para la detección de Omikron. Este fue el resultado del Paul-Ehrlich-Institut (PEI) usando sus propias muestras. El PEI y el Instituto Federal de Medicamentos y Dispositivos Médicos (BFARM) han publicado listas de pruebas rápidas de antígeno que se han demostrado para Delta y también son adecuadas para Omikron según los datos actuales (ver Tabla). Las pruebas que no son adecuadas para la detección de Omikron de acuerdo con la evaluación PEI ya no se enumeran.
La FDA de la Autoridad de Drogas de los Estados Unidos sospechaba que muchas pruebas rápidas comunes no cumplirían con los criterios mínimos. Aquí, también, los estudios individuales dieron el motivo de preocupación: el Instituto de Microbiología de la Bundeswehr, por ejemplo, certificó 28 pruebas disponibles en Alemania para reconocer a Omikron, pero no tan bien como esperado. En un estudio de Munich, ocho de nueve pruebas permanecieron entre las tasas de golpes para la variante Delta.
«Nuestras investigaciones no indican una sensibilidad reducida de las pruebas rápidas de antígeno en comparación con Omikron», informa el PEI. Esto se puede transferir a otras pruebas con un diseño similar: el PEI llama a este método «puente». Prerrequisito: los anticuerpos de la prueba no atracan en el punto del virus, donde Omikron difiere de las variantes más antiguas. Así fue con las 20 pruebas probadas con éxito: puede ver el coronavirus por una proteína que no se ve afectada por las mutaciones omikron. Por lo tanto, el PEI solicitó a los fabricantes de más de 600 pruebas de velocidad de antígeno que usen qué región de virus identifican el coronavirus.
¿Cómo se interpreta el test exacto de Fisher?
Cuando trabajamos en tipos nominales de datos, principalmente nos centramos en tablas de frecuencia. No hay demasiados métodos estadísticos para deducir las conclusiones de qué retransmisión de datos nominales, a diferencia de los datos numéricos. Métodos como correlaciones, intervalos de confianza, media, mediana, etc. funcionan para tipos de datos numéricos. Por lo tanto, las tablas de frecuencia se utilizan para interpretar los datos nominales. Con la ayuda de la tabla de frecuencia, los datos nominales se pueden interpretar considerando los valores de frecuencia en esa tabla.
Después de crear una tabla de frecuencia, podemos tener datos numéricos en los que podemos aplicar métodos estadísticos. Prueba de bondad de ajuste de chi-cuadrado y prueba de independencia son principalmente métodos conocidos para verificar si las frecuencias son las esperadas o no de acuerdo con los valores observados. Estas pruebas proporcionan información sobre la distribución de datos nominales. Además, también hay una métrica más que proporciona una puntuación general sobre la asociación de dos datos nominales. Se llama la odds ratio. La razón de probabilidad funciona principalmente en variables nominales que tienen exactamente dos niveles. La prueba estadística llamada Fisher’s Exact para las tablas 2×2 pruebas si la razón de odds es igual a 1 o no. También puede probar si la odds ratio es mayor o menor que 1.
En este artículo, explicaré cuál es la odds ratio, cómo calcularla y cómo probar si va a ser igual a 1 en la población. Veremos las siguientes secciones;
- Caso de ejemplo
- Odds ratio y cálculo
- Prueba de probabilidades con la prueba exacta de Fisher en Python
Suponga que está trabajando en datos clínicos. Tienes dos variables básicas. Uno de ellos muestra si los pacientes están por encima del peso promedio y el otro muestra si los pacientes tienen problemas de salud. Su propósito es encontrar si hay alguna diferencia o asociación entre estar por encima del peso promedio y tener problemas de salud. Entonces, supongamos que hicimos nuestro experimento en 20 pacientes diferentes y sus resultados se encuentran como la tabla a continuación.
¿Qué mide la prueba de Fisher y que otra prueba Aplicarías para medir lo mismo que la anterior?
La prueba exacta de Fisher se basa en la distribución hipergeométrica. Considere el muestreo de una población de tamaño N que tiene objetos C1 con A y C2 con Not-A. Dibuje una muestra de objetos R1 y encuentre un con A. Entonces
Hay muestras (NR1) posibles. De estos, (C1a) es el número de formas de elegir A en una muestra de tamaño C1, (C2B) es el número de formas de elegir Not-A en una muestra de tamaño N-C1 = C2; Y debido a que estos son independientes, existen formas (C1a) (C2B) de elegir A AS y B Not-AS. Por lo tanto, la probabilidad de elegir AAS = (C1A) (C2B) (NR1) = C1! A! C! × C2! B! D! N! R1! R2! = C1! C2! R1! R2! N! A! A! A! B! C! D!; La última forma es la forma en que generalmente se da la fórmula de prueba exacta de Fisher. Hacer este cálculo para todas las combinaciones más extremas que la presentada produce la probabilidad dada en la prueba exacta de Fisher.
Una clínica médica tiene 30 pacientes, 20 mujeres y 10 hombres. Se dibuja una muestra aleatoria de 5 pacientes. ¿Cuál es la probabilidad de que haya 2 hombres?
Se puede elegir una muestra de 5 pacientes de 30 en (305) maneras = 142,506 maneras.
Se puede dibujar una muestra de 2 hombres y 3 mujeres en (102) × (203) formas = 51,300 formas.
La probabilidad en la prueba exacta de Fisher es, por lo tanto, 20! 10! 5! 25! 3! 2! 17! 8! 30! = 0.359985.
La prueba exacta de Fisher se basa en la distribución hipergeométrica. Considere el muestreo de una población de tamaño N que tiene objetos C1 con A y C2 con no A. Dibuje una muestra de objetos R1 y encuentre A con A. Entonces
Hay muestras posibles NR1. De estos, C1a es el número de formas de elegir una muestra de tamaño C1, C2B es el número de formas de elegir no A en una muestra de tamaño N – C1 = C2; Y debido a que estos son independientes, hay formas C1AC2B de elegir A AS y B no AS. Por lo tanto, la probabilidad de elegir A AS = C1AC2BNR1 = C1! A! C! × C2! B! D! N! R1! R2! = C1! C2! R1! R2! N! A! A! B! C! D! D! D!; La última forma es la forma en que generalmente se da la fórmula de prueba exacta del Fisher. Hacer este cálculo para todas las combinaciones más extremas que la presentada produce la probabilidad dada en la prueba exacta de Fisher (ejemplo 13.1).
¿Cuándo usar chi cuadrado y Fisher?
Cuando intentamos comparar las proporciones de un resultado categórico de acuerdo con diferentes grupos independientes, podemos considerar varias pruebas estadísticas como la prueba de chi cuadrado, la prueba exacta de Fisher o la prueba Z. La prueba de chi-cuadrado y la prueba exacta de Fisher pueden evaluar la independencia entre dos variables cuando los grupos de comparación son independientes y no correlacionados. La prueba de chi cuadrado aplica una aproximación suponiendo que la muestra sea grande, mientras que la prueba exacta del pescador ejecuta un procedimiento exacto, especialmente para muestras de tamaño pequeño.
La prueba de chi cuadrado se utiliza para comparar la distribución de una variable categórica en una muestra o un grupo con la distribución en otra. Si la distribución de la variable categórica no es muy diferente en diferentes grupos, podemos concluir que la distribución de la variable categórica no está relacionada con la variable de grupos. O podemos decir que la variable categórica y los grupos son independientes. Por ejemplo, si los hombres tienen una condición específica más que las mujeres, hay mayores posibilidades de encontrar una persona con la condición entre los hombres que entre las mujeres. No creemos que el género sea independiente de la condición. Si existe la misma posibilidad de tener la condición entre hombres y mujeres, encontraremos que la posibilidad de observar la condición es la misma independientemente del género y podemos concluir su relación como independiente. Los ejemplos 1 y 2 en la Tabla 1 muestran una relación independiente perfecta entre la condición (A y B) y el género (masculino y femenino), mientras que el ejemplo 3 representa una fuerte asociación entre ellos. En el ejemplo 3, las mujeres tenían una mayor oportunidad de tener la condición A (p = 0.7) en comparación con los hombres (p = 0.3).
La prueba de chi cuadrado realiza una prueba de independencia bajo las siguientes hipótesis nulas y alternativas, H0 y H1, respectivamente.
El estadístico de prueba de la prueba de chi -cuadrado: χ2 = ∑ (0 -E) 2e ~ χ2 con grados de libertad (R – 1) (C – 1), donde O y E representan la frecuencia observada y esperada, y C IS El número de filas y columnas de la tabla de contingencia.
El primer paso de la prueba de chi cuadrado es el cálculo de las frecuencias esperadas (E). E se calcula bajo la suposición de una relación independiente o, en otras palabras, no hay asociación. Bajo una relación independiente, las frecuencias celulares se determinan solo por proporciones marginales, es decir, proporción de A (60/200 = 0.3) y B (1400/200 = 0.7) en el Ejemplo 2. En el ejemplo 2, la frecuencia esperada del hombre y el hombre y Una célula se calcula como 30, que es la proporción de 0.3 (proporción de a) en 100 hombres. Del mismo modo, la frecuencia esperada del macho y una célula es 50 que es la proporción de 0.5 (proporción de a = 100/200 = 0.5) en 100 hombres en el ejemplo 3 (Tabla 1).
Artículos Relacionados:
