Prueba de Fisher: Ejemplos y Guía paso a paso

Para comprender los Fisher, es posible que desee leer estos artículos primero:

La prueba exacta de independencia de Fisher es una prueba estadística utilizada cuando tiene dos variables nominales y desea averiguar si las proporciones para una variable nominal son diferentes entre los valores de la otra variable nominal. Para experimentos con pequeños números de participantes (menores de 1,000), Fisher’s es más preciso que la prueba de chi-cuadrado o la prueba G.

A diferencia de otras pruebas estadísticas, no hay una fórmula para Fisher. Para obtener un resultado para esta prueba, calcule la probabilidad de obtener los datos observados utilizando la hipótesis nula de que las proporciones son las mismas para ambos conjuntos.

Situación exacta de ejemplo de Fisher de Independence: está estudiando si ciertos tratamientos para el cáncer de piel conducen a buenos resultados. La primera variable nominal es el tratamiento: a algunos pacientes reciben el fármaco X y otros reciben medicamento Y. La segunda variable nominal es el resultado: los pacientes se curan de cáncer, o no lo son. Cuando completa el estudio de 50 pacientes, encuentra que el porcentaje de pacientes que se curaron y tomaron el medicamento X es mucho más alto que los pacientes que tomaron la prueba exacta de la independencia de Fisher Y. Fisher le dirá si sus resultados son estadísticamente significativos.

La prueba exacta de independencia de Fisher utiliza una tabla de contingencia para mostrar los diferentes resultados para un experimento. Aunque es posible calcularlo a mano (puede encontrar el procedimiento aquí, desplazarse hacia abajo hasta la «Prueba de probabilidad exacta de Fisher: lógica y procedimiento»), ¿por qué querría? Para más de un puñado de entradas, los cálculos pueden ser muy tediosos.

¿Cuándo se utiliza la prueba de Fisher?

La prueba exacta de Fisher es una prueba estadística utilizada para determinar si las proporciones de categorías en dos variables de grupo difieren significativamente entre sí. Para usar esta prueba, debe tener dos variables de grupo con dos o más opciones y debe tener menos de 10 valores por celda. Ver más a continuación.

Cada método estadístico tiene suposiciones. Los supuestos significan que sus datos deben satisfacer ciertas propiedades para que los resultados del método estadístico sean precisos.

  • Grupos mutuamente excluyentes

Los puntos de datos para cada grupo en su análisis deben provenir de una muestra aleatoria simple. Esto es importante porque si sus grupos no se determinaron al azar, su análisis será incorrecto. En términos estadísticos, esto se llama sesgo, o una tendencia a tener resultados incorrectos debido a los malos datos.

Cada una de sus observaciones (puntos de datos) debe ser independiente. Esto significa que cada valor de sus variables no «depende» de ninguna de las otras. Por ejemplo, esta suposición generalmente se viola cuando hay múltiples puntos de datos a lo largo del tiempo de la misma unidad de observación (por ejemplo, sujeto/cliente/tienda), porque los puntos de datos de la misma unidad de observación pueden estar relacionadas o afectar entre sí .

Los dos grupos de su variable categórica deben ser mutuamente excluyentes. Por ejemplo, si su variable categórica tiene hambre (sí/no), entonces sus grupos son mutuamente excluyentes, porque una persona no puede pertenecer a ambos grupos a la vez.

Debe usar la prueba exacta de Fisher en el siguiente escenario:

  • Grupos mutuamente excluyentes
  • Quieres probar la diferencia entre dos variables
  • ¿Qué valora Fisher?

    Bajo el método de Fisher, dos pequeños p-valores p y p2 se combinan para formar un valor p más pequeño. El límite amarillo-verde define la región donde el valor p del metanálisis está por debajo de 0.05. Por ejemplo, si ambos valores p son de alrededor de 0.10, o si uno es alrededor de 0.04 y uno es alrededor de 0.25, el valor p del metanálisis es de alrededor de 0.05.

    En estadísticas, el método de Fisher [1] [2], también conocido como prueba de probabilidad combinada de Fisher, es una técnica para la fusión de datos o el «metanálisis» (análisis de análisis). Fue desarrollado por Ronald Fisher. En su forma básica, se utiliza para combinar los resultados de varias pruebas independientes que tienen la misma hipótesis general (H0).

    Donde Pi es el valor p para la prueba de hipótesis. Cuando los valores p tienden a ser pequeños, la estadística de prueba X2 será grande, lo que sugiere que las hipótesis nulas no son ciertas para cada prueba.

    Cuando todas las hipótesis nulas son ciertas, y las PI (o sus estadísticas de prueba correspondientes) son independientes, X2 tiene una distribución de chi-cuadrado con 2kdegrees de libertad, donde K es el número de pruebas que se combinan. Este hecho se puede usar para determinar el valor p para X2.

    La distribución nula de X2 es una distribución de chi-cuadrado por la siguiente razón. Bajo la hipótesis nula para la Prueba I, el valor P PI sigue una distribución uniforme en el intervalo [0,1]. El logaritmo natural negativo de un valor distribuido uniformemente sigue una distribución exponencial. Escalar un valor que sigue una distribución exponencial por un factor de dos rendimientos de una cantidad que sigue a una distribución de chi-cuadrado con dos grados de libertad. Finalmente, la suma de K valores de chi-cuadrado independientes, cada uno con dos grados de libertad, sigue una distribución de chi-cuadrado con 2k grados de libertad.

    ¿Cómo se calcula prueba de distribución Fisher?

    En estadísticas, la prueba exacta de Fisher es una prueba estadística exacta utilizada para el análisis de las tablas de contingencia. Esta prueba generalmente se usa con números pequeños, pero es válido para todo el tamaño de la muestra. Debe su nombre a su inventor, Ronald Fisher. Es una prueba calificada como correcta porque la probabilidad se puede calcular exactamente en lugar de basarse en una aproximación que se vuelve correcta solo asintóticamente como para el testusci2 { dongestyle chi ^ {2}} utilizado en las tablas de contingencia.

    Los cálculos manuales son razonables solo para las tablas 2 × 2, pero el principio de prueba se puede extender al caso general y algún software estadístico permite el cálculo del caso general.

    Fisher habría diseñado la prueba después de un comentario de Muriel Bristol, quien dijo que pudo detectar si el té o la leche fueron agregados primero a su taza. Probó su declaración en un experimento llamado «Lady Who Sabe Tea».

    Considere una tabla de contingencia entre dos variables cualitativas A y B. El primer paso consiste en formular la hipótesis de nada de independencia entre estas dos variables cualitativas. Si estas dos variables son independientes, por lo tanto, podemos calcular la probabilidad de cada modo A1, A2… La probabilidad de presentar A1 y B1 es, por lo tanto, la misma que P (A1) × P (B1). Por lo tanto, podemos calcular la probabilidad de encontrarnos en cada celda de la tabla. Finalmente, podemos calcular la probabilidad, si la hipótesis nada es verdad, para observar una tabla de contingencia dada.

    Por lo tanto, el segundo paso consiste en calcular, para todas las tablas de contingencia posibles, incluida la estudiada, la posibilidad de observar esta tabla de contingencia si la hipótesis no es cierta. Por lo tanto, las tablas de contingencia se colocan en dos categorías: aquellas que son más compatibles con la hipótesis nada que la tabla estudiada (su probabilidad es mayor bajo la hipótesis nada), y aquellos que son igualmente o menos compatibles.

    ¿Cómo se calcula la prueba de Fisher?

    La prueba exacta de Fisher es una prueba de importancia que se usa en el lugar de la prueba de chi cuadrado en 2 por 2 tablas, especialmente en casos de pequeñas muestras.

    Statistics Solutions es el líder del país en Fisher Exact Test and Tress Consulting. Use el calendario a continuación para programar una consulta gratuita de 30 minutos.

    Alinear el marco teórico, la recopilación de artículos, sintetizar brechas, articular una metodología y plan de datos claros, y escribir sobre las implicaciones teóricas y prácticas de su investigación son parte de nuestros servicios integrales de edición de tesis.

    • Rastree todos los cambios, luego trabaje con usted para lograr una escritura académica.
    • Apoyo continuo para abordar los comentarios del comité, reduciendo las revisiones.

    La prueba exacta de Fisher prueba la probabilidad de obtener una tabla que sea tan fuerte debido a la posibilidad de muestreo. La palabra «fuerte» se define como la proporción de los casos que son diagonales con la mayoría de los casos.

    La prueba exacta de Fisher generalmente se usa en una prueba de cola. Sin embargo, también se puede usar como una prueba de dos colas. A veces se llama prueba de Fisher Irwin. Se le da este nombre porque fue desarrollado al mismo tiempo por Fisher, Irwin y Yates en 1930.

    En SPSS, la prueba exacta de Fisher se calcula además de la prueba de Chi cuadrado para una tabla 2×2 cuando la tabla consiste en una celda donde el número esperado de frecuencias es menos de 5.

    Hay ciertas terminologías que ayudan a comprender la teoría de la prueba exacta de Fisher.

    ¿Cómo se utiliza la prueba exacta de Fisher?

    Los cursos de estadísticas, especialmente para los biólogos, asumen fórmulas = comprender y enseñar cómo hacer estadísticas, pero ignoran en gran medida lo que esos procedimientos suponen, y cómo sus resultados son incorrectos cuando esos supuestos no son razonables. El mal uso resultante es, digamos, predecible…

    Al igual que con la prueba Chi Square de Pearson, el propósito de la prueba exacta de Fisher es determinar si existe una diferencia significativa entre dos proporciones o probar la asociación entre dos características. Sin embargo, la prueba exacta de Fisher asume un modelo bastante diferente. Como antes, las frecuencias en cada categoría se organizan en una tabla de contingencia de 2×2. Pero en este caso se supone que los totales de fila como de columna son fijos, no aleatorios. Suponiendo que los totales marginales se fijan enormemente simplifican las matemáticas y significa que las probabilidades se pueden estimar utilizando la distribución hipergeométrica con cuatro clases.

    La prueba exacta de Fisher se usa ampliamente en todas las disciplinas, pero casi siempre en la pequeña situación de muestra, en lugar de cuando el diseño es apropiado. Podría decirse que esto debería clasificarse como un mal uso de la prueba. Es cierto que la prueba exacta de Fisher da una mejor aproximación a la probabilidad correcta en tales circunstancias que la prueba de Chi Square de Pearson, pero casi siempre es demasiado conservador y puede ser engañoso. La naturaleza conservadora de la exacta de Fisher es un problema especial cuando se realiza el análisis univariado inicial para identificar variables para la inclusión posterior en un modelo multivariado. El enfoque preferido en la situación de muestra pequeña es utilizar una prueba exacta (Monte Carlo) utilizando el modelo correcto: para encuestas analíticas el modelo multinomial y para ensayos aleatorios el modelo binomial independiente.

    Al igual que con la prueba Chi Square de Pearson, la falta de independencia del resultado es el factor más común que invalida la prueba. Esto se aplica cada vez que se realizan observaciones repetidas en los mismos animales, todos son ejemplos de pseudoreplicación. El mismo problema surge si la unidad experimental se cambia para que las frecuencias en la tabla de contingencia ya no se apliquen al número de unidades asignadas aleatoriamente al tratamiento. En general, no puede solo transferir los enfoques estadísticos utilizados para ensayos aleatorios que usan pacientes a uno que usa mosquitos a menos que los mosquitos individuales se alejen al azar al tratamiento. La agrupación de frecuencias de diferentes bloques o réplicas en diseños experimentales también no es válida. Existe un claro riesgo de sesgo cuando las categorías se colapsan para crear tablas 2 × 2 a partir de tablas R × C; esto puede haber ocurrido en un documento sobre el patrocinio financiero de artículos científicos relacionados con la nutrición.

    ¿Cómo hacer la prueba F en R?

    • Por defecto, esta función de prueba supone que necesita una varianza desigual, prueba t de 2 muestras.
    • Para realizar una prueba t de igual varianza en estos datos, use t.test (y1, y2, var.equal = true)
    • T.Test (y1, y2, emparejado = verdadero) intentaría realizar una prueba t de 1 muestra de Y1 e Y2, pero, dados los datos que usamos anteriormente, fallaría porque estos Y1 e Y2 no tienen las mismas Número de valores: en otras palabras, solo algunos de ellos pueden emparejarse.
    • Nuevamente, de forma predeterminada, la función T.Test supone que desea un valor p de 2 lados, en otras palabras, su suposición alternativa es de 2 lados. Para hacer que esta función realice un conjunto de prueba de 1 lado alternativo = ‘menos’ o alternativo = ‘mayor’.

    Al momento de escribir, la función de prueba de T. estándar no realiza una prueba t de medias ponderadas. Las instrucciones a continuación calculan las estadísticas requeridas y las prueban utilizando las funciones de probabilidad T y F acumulativas de R.

    • Por defecto, esta función de prueba supone que necesita una varianza desigual, prueba t de 2 muestras.
    • Para realizar una prueba t de igual varianza en estos datos, use t.test (y1, y2, var.equal = true)
    • T.Test (y1, y2, emparejado = verdadero) intentaría realizar una prueba t de 1 muestra de Y1 e Y2, pero, dados los datos que usamos anteriormente, fallaría porque estos Y1 e Y2 no tienen las mismas Número de valores: en otras palabras, solo algunos de ellos pueden emparejarse.
    • Nuevamente, de forma predeterminada, la función T.Test supone que desea un valor p de 2 lados, en otras palabras, su suposición alternativa es de 2 lados. Para hacer que esta función realice un conjunto de prueba de 1 lado alternativo = ‘menos’ o alternativo = ‘mayor’.
  • Se supone que los pares ocurren según el orden de los valores dentro de las variables Y1 y Y2; en otras palabras, el par ésimo son y1 [i] e y2 [i].
  • Por defecto, la función T.TEST asume emparejado = falso, por lo que T.Test (Y1, Y2) realizaría una prueba t de 2 muestras de Y1 e Y2
  • Nuevamente, de forma predeterminada, la función T.Test supone que desea un valor p de 2 lados, en otras palabras, su suposición alternativa es de 2 lados. Para hacer esta función, realice un conjunto de pruebas de 1 lado alternativo = ‘menos’ o alternativo = ‘mayor’.
  • Excepto cuando se especifique lo contrario, todos los texto e imágenes en esta página son puntos de influencia de derechos de autor, todos los derechos reservados. Las imágenes no los copyright influyentes de los puntos acreditan su fuente en las páginas web adjuntas a través de enlaces de hipertexto de esas imágenes.

    ¿Qué evalua Fisher?

    Primero, comenzamos con la definición de la función de probabilidad. Suponga que un conjunto de datos $ x $ donde cada observación se distribuye de manera ideal e independiente de acuerdo con una verdadera distribución subyacente parametrizada por $ theta $. Dada esta función de densidad de probabilidad $ f_ theta (x) $, podemos escribir la función de probabilidad de la siguiente manera:

    Si bien es a veces la convención que la función de probabilidad se denota como $ mathcal {l} ( theta vert x) $, optamos por una notación alternativa para reservar $ mathcal {l} $ para la función de pérdida.

    Para continuar, sabemos que la estimación de máxima probabilidad del parámetro de la distribución viene dada por

    Este es el ejercicio estándar que ya conocemos. El siguiente paso, como todos sabemos, es tomar la derivada del término en el argumento Maxima, establecerlo igual a cero, ¡y listo! Hemos encontrado la estimación de máxima probabilidad del parámetro.

    Un rápido aparte que puede volverse más tarde es el hecho de que maximizar la probabilidad asciende a minimizar la función de pérdida.

    Ahora aquí viene la definición de la función de puntaje de Fisher, que realmente no es más que lo que hemos hecho anteriormente: es solo el gradiente de la función de probabilidad de registro.

    En otras palabras, ya hemos estado utilizando implícitamente la puntuación de Fisher para encontrar el máximo de la función de probabilidad todo el tiempo, solo sin usar explícitamente el término. La puntuación de Fisher es simplemente el gradiente o la derivada de la función de probabilidad log, lo que significa que establecer el puntaje igual a cero nos da la estimación de máxima verosimilitud del parámetro.

    ¿Cuándo se usa Fisher y Chi-cuadrado?

    Este artículo tiene como objetivo introducir la metodología estadística detrás de las pruebas exactas de Chi-Square y Fisher, que se usan comúnmente en la investigación médica para evaluar las asociaciones entre variables categóricas. Esta discusión utilizará datos de un estudio de Mrozek1 en pacientes con síndrome de dificultad respiratoria aguda (ARDS). Este fue un estudio multicéntrico, prospectivo y observacional: multicéntrico porque incluía datos de 10 unidades de cuidados intensivos, prospectivo porque el estudio recopiló los datos avanzando en el tiempo y observacional porque los investigadores del estudio no tenían control sobre las asignaciones grupales, sino que se usaron. los grupos naturales. El objetivo del estudio era caracterizar los patrones focales y no focales de la tomografía computarizada pulmonar (TC) con marcadores plasmáticos de lesión pulmonar.

    La variable de agrupación primaria era el tipo de ARDS (focal vs no focal) según lo determinado por las tomografías computarizadas y otras herramientas de imágenes pulmonares. En este estudio, hubo 32 (27%) pacientes con SDRA focal y 87 (73%) pacientes con SDRA no focal. Sin embargo, lo que será importante es clasificar el tipo de variables porque esto determina el tipo de análisis realizados. El tipo de ARDS es una variable categórica con 2 niveles.

    El punto final del estudio primario era los niveles plasmáticos de la forma soluble del receptor para el producto final de glicación avanzada. También hubo una serie de puntos finales de estudio secundarios que pueden agruparse como resultados del paciente o biomarcadores. Los resultados del paciente incluyeron la duración de la ventilación mecánica y la mortalidad de 28 y 90 días. Los niveles de otros biomarcadores incluyeron proteína D tensioactiva D, molécula de adhesión intercelular soluble-1 e inhibidor del activador del plasminógeno-1.

    Este artículo se centró en el resultado secundario de la mortalidad de 90 días que comenzó al inicio de la enfermedad. Nuevamente, estamos interesados ​​en clasificar esta variable, que es categórica con 2 niveles (sí frente a no). Entonces, el escenario es que queremos evaluar la relación entre el tipo de ARDS (focal vs no focal) y la mortalidad de 90 días (sí vs no). En su forma más básica, este escenario es una investigación sobre la asociación entre 2 variables categóricas.

    ¿Cómo aplicar la prueba de Fisher?

    El procedimiento para realizar la prueba exacta de Fisher en SPSS es similar al utilizado para la prueba de Chi Square. Para comenzar, haga clic en Analizar -> Estadísticas descriptivas -> CrosStabs. El cuadro de diálogo Crosstabs aparecerá.

    Verás tus variables a la izquierda. Si tiene más de dos, como en nuestro ejemplo, debe identificar cuál de los dos desea probar para independencia. Uno de estos entra en el cuadro de fila y el otro en el cuadro de columna. No importa qué variable entra en qué caja. Puede arrastrar y soltar, o usar las flechas, como arriba.

    La primera etapa en la configuración de SPSS para ejecutar la prueba exacta de Fisher es configurar una prueba de Chi Square. Para hacer esto, haga clic en las estadísticas y elija la opción Chi-Square. Presione Continuar cuando haya hecho la selección.

    Ahora debería volver al cuadro de diálogo Crosstabs. Es hora de establecer la prueba exacta de Fisher. Presione el botón exacto (arriba a la derecha dentro del cuadro de diálogo Crosstabs) y elija la opción exacta, dejando el límite de tiempo de prueba tal como está.

    Puede ver el resultado de la prueba en el Visor de salida SPSS. Se verá algo así.

    Como puede ver anteriormente, el valor de la estadística de prueba exacta del Fisher es 3.286. Esto da como resultado un valor P de .263. Normalmente esto no se consideraría significativo (dado un nivel alfa de .05, por ejemplo). La estadística de prueba de Chi-cuadrado de Pearson (3.589) de manera similar no alcanza la importancia. Por lo tanto, en este caso, no tenemos motivos para rechazar la hipótesis nula de que no hay asociación entre el nivel de educación y la propiedad de perros.

    Artículos Relacionados:

    Más posts relacionados:

    Deja una respuesta

    Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *