¿Qué son las pruebas de normalidad en SPSS y cómo se realizan?

En las estadísticas, la prueba de Kolmogorov-Smirnov (prueba K-S o KS KS) es una prueba no paramétrica de la igualdad de las distribuciones de probabilidad unidimensionales continuas (o discontinuas, consulte la Sección 2.2) que se pueden usar para comparar una muestra con una probabilidad de referencia Distribución (prueba K-S de una muestra), o para comparar dos muestras (prueba K-S de dos muestras). En esencia, la prueba responde a la pregunta «¿Cuál es la probabilidad de que esta colección de muestras podría haberse extraído de esa distribución de probabilidad?» O, en el segundo caso, «¿Cuál es la probabilidad de que estos dos conjuntos de muestras se extrajeran de la misma distribución de probabilidad (pero desconocida)?».
Lleva el nombre de Andrey Kolmogorov y Nikolai Smirnov.

El estadístico Kolmogorov -Smirnov cuantifica una distancia entre la función de distribución empírica de la muestra y la función de distribución acumulativa de la distribución de referencia, o entre las funciones de distribución empírica de dos muestras. La distribución nula de esta estadística se calcula bajo la hipótesis nula de que la muestra se extrae de la distribución de referencia (en el caso de una muestra) o que las muestras se extraen de la misma distribución (en el caso de dos muestras). En el caso de una muestra, la distribución considerada bajo la hipótesis nula puede ser continua (ver Sección 2), puramente discreta o mixta (ver Sección 2.2). En el caso de dos muestras (ver Sección 3), la distribución considerada bajo la hipótesis nula es una distribución continua, pero por lo demás no tiene restricciones. Sin embargo, las dos pruebas de muestra también se pueden realizar en condiciones más generales que permiten la discontinuidad, la heterogeneidad y la dependencia entre las muestras. [1]

La prueba K-S de dos muestras es uno de los métodos no paramétricos más útiles y generales para comparar dos muestras, ya que es sensible a las diferencias tanto en la ubicación como en la forma de las funciones de distribución acumulativa empírica de las dos muestras.

¿Cómo se saca prueba de normalidad en SPSS?

Este tutorial rápido explicará cómo probar si los datos de la muestra normalmente se distribuyen en el paquete de estadísticas SPSS.

Es un requisito de muchas pruebas estadísticas paramétricas, por ejemplo, la prueba t de muestras independientes, que los datos normalmente se distribuyen. Hay varias formas diferentes de probar este requisito. Nos centraremos en las pruebas de Kolmogorov-Smirnov y Shapiro-Wilk.

  • Haga clic en Analizar -> Estadísticas descriptivas -> Explorar…
  • Mueva la variable de interés desde el cuadro izquierdo al cuadro de lista dependiente a la derecha.
  • Haga clic en el botón PROTS y marque los gráficos de normalidad con la opción Tests.
  • Haga clic en Continuar y luego haga clic en Aceptar.
  • Su resultado aparecerá: consulte la sección Pruebas de normalidad.

Nuestros datos de ejemplo, que se muestran anteriormente en la vista de datos de SPSS, provienen de un estudio simulado que analiza el efecto de la propiedad de perros sobre la capacidad de lanzar un frisbee.

La distancia de lanzamiento de Frisbee en metros (resaltado) es la variable dependiente, y necesitamos saber si normalmente se distribuye antes de decidir qué prueba estadística usar para determinar si la propiedad del perro está relacionada con la capacidad de lanzar un frisbee.

Para comenzar, haga clic en Analizar -> Estadísticas descriptivas -> Explorar… esto aparecerá el cuadro de diálogo Explorar, como se muestra a continuación.

Primero, debe obtener la variable de distancia de lanzamiento de Frisbee desde el cuadro izquierdo en el cuadro de lista dependiente. Puede arrastrar y soltar, o usar la flecha azul en el medio.

¿Cómo hallar la prueba de normalidad en SPSS?

Lo primero que necesitará es algunos datos (¡por supuesto!) En el archivo SPSS. He creado un conjunto de datos de ejemplo que usaré para esta guía. Es simplemente un archivo que contiene dos variables de edades (en años) y el sexo de una población. En total hay 40 sujetos, la mitad de los cuales son hombres y la otra mitad femenina.

Ahora tenemos un conjunto de datos, podemos seguir adelante y realizar las pruebas de normalidad. Sin embargo, hay algunas maneras de determinar si sus datos se distribuyen normalmente, para aquellos que son nuevos en las pruebas de normalidad en SPSS, sugiero que comience con la prueba Shapiro-Wilk, que describiré cómo hacer con más detalle a continuación.

  • En primer lugar, vaya a ‘Analizar> Estadísticas descriptivas> Explorar…‘.

2. Una nueva ventana llamada ‘Explore‘ ahora debería estar abierta. En primer lugar, determinemos si los datos (edades de los sujetos) para todo el conjunto de datos se distribuyen normalmente. Para hacer esto, moveré la variable ‘Age‘ al cuadro ‘Lista dependiente‘. Coloque la variable que desee probar en este cuadro.

3. Para seleccionar las pruebas de normalidad, luego haga clic en el botón ‘gráficos…‘. Esto abrirá otra ventana con una variedad de opciones. Marque la opción ‘Normalidad con las pruebas‘, ya que esto habilitará las pruebas de normalidad. Además, me resulta útil ver los histogramas de los datos también, así que marque la opción ‘Histograma‘ bajo el encabezado ‘Descriptivo‘.

4. Haga clic en el botón ‘Continuar‘ en la ventana ‘Pots‘ y luego el botón ‘OK‘ en la ventana ‘Explore‘ para realizar las pruebas.

¿Cómo se prueba la normalidad de los datos?

Ya se ha dicho que las fuentes de variación están presentes en todas las medidas de un carácter biológico. Sin embargo, esta variabilidad no es del todo impredecible: de hecho, muchos fenómenos naturales siguen un modelo teórico definido como «curva de distribución normal» o «gaussiano».

Este modelo tiene una propiedad extremadamente interesante. De hecho, en presencia de datos de distribución normales, se remonta a los caracteres de la población que generaron los datos mencionados conociendo solo medios estándar y desviación. Esta declaración, que quizás a primera vista le parece poco importante, es en lugar de un gran valor, ya que podemos demostrar que, en un gaussiano, el 95% de los datos caen en el intervalo promedio ± 1.96 veces la desviación estándar:

Al expandir el discurso, se puede demostrar, por ejemplo, que:
– El intervalo [promedio ± 2.57 veces la desviación estándar] incluye el 99% de los datos
– El intervalo [promedio ± 1.00 veces la desviación estándar] incluye aproximadamente el 68% de los datos
como se ilustra en la siguiente figura.

Hablando de manera más general, se puede demostrar que:
– El intervalo [medios ± zvolte La desviación estándar] incluye x% de los datos, donde los valores Z y X se obtienen de tablas especiales.

Lo que se ha dicho hasta ahora es útil para encontrar la respuesta a una pregunta frecuente que surge espontáneamente cuando se realiza una medida de carácter biológico en uno (o más) individuos. La pregunta es

¿El valor observado debe considerarse «normal»?

¿Qué son las pruebas de normalidad?

En estadísticas, las pruebas de normalidad se utilizan para determinar si un conjunto de datos está bien modelado por una distribución normal. Las pruebas también calculan cuán probable es que una variable aleatoria subyacente al conjunto de datos se distribuya normalmente.

Muchos métodos estadísticos requieren que los datos provengan de una distribución normal o al menos se puedan aproximar razonablemente por una distribución normal.

Distribución normal: una variable aleatoria normal,
y tiene la función de densidad normal, F, dada la siguiente:

donde µ = (µ1, µ2,…, µp) t es el vector medio y ∑ es la matriz de covarianza.

Pruebas de normalidad: en general, una prueba estadística de normalidad suele ser de la siguiente forma:

  • H0: los datos siguen una distribución normal
  • HA: los datos no siguen una distribución normal

donde un pequeño valor p indica que los datos no siguen una distribución normal.

  • H0: los datos siguen una distribución normal
  • HA: los datos no siguen una distribución normal
  • Anderson-Darling
  • Kolmogorov-Smirnov
  • Shapiro-wilk
  • Si se seleccionan dos o más variables, entonces las pruebas de normalidad multivariada de Mardia basadas en asimetría multivariada y curtosis también están disponibles.

    Para una muestra dada x1

    donde F es la función de distribución acumulativa normal.

    Hay dos versiones de la prueba de Anderson-Darling, una que supone que los parámetros de la distribución normal (media y desviación estándar) son conocidos y son iguales a las estimaciones de muestra y uno que no asume que los parámetros son conocidos.

    ¿Qué es una prueba de normalidad?

    La prueba de BI generalmente se realiza en el consejo del ginecólogo, para conocer la probabilidad de tener un hijo con anomalías cromosómicas.

    Si la detección del primer trimestre proporciona resultados preocupantes, se puede recomendar a la mujer embarazada la ejecución de investigaciones adicionales: pruebas de detección (prueba triple y cuádruple) o investigaciones más invasivas del diagnóstico prenatal (amniocentesis o análisis de villias chorales).
    Sin embargo, si el resultado es favorable, la mujer embarazada puede decidir renunciar al diagnóstico invasivo, lo que implica un cierto riesgo de aborto (aproximadamente el 1% de los casos).

    El PAPP-A (proteína plasmática asociada al embarazo A) es una proteína producida por el trofoblasto (masa celular externa del blastocisto) y la placenta en crecimiento. Durante un embarazo normal, los niveles de esta proteína aumentan hasta el parto.

    El HCG (gonadotropina coriónica humana) es una hormona producida por el trofoblasto, por lo tanto, de la placenta. En la prueba de detección del primer trimestre, se pueden medir tanto la subunidad beta libre (β-HCG libre) como el HCG total.

    En general, los niveles de esta proteína aumentan gradualmente en el círculo materno en las primeras 8-10 semanas de embarazo, y luego disminuyen y se estabilizan en los niveles mínimos para el resto de la gestación.

    La translucencia nucal es la cantidad de líquidos presentes entre la columna vertebral y la piel presente al nivel del cuello del feto. Esto se observa a través de un excelente equipo de motor tecnológico y la presencia de personal médico específicamente preparado, para no incurrir en la lectura de resultados falsos.

    ¿Cuáles son los tipos de prueba de normalidad?

    Las pruebas de normalidad se pueden clasificar en pruebas basadas en chi cuadrado, momentos, distribución empírica, espacios, regresión y correlación y otras pruebas especiales. Este documento estudia y compara el poder de ocho pruebas de normalidad seleccionadas: la prueba Shapiro -Wilk, la prueba de Kolmogorov -Smirnov, la prueba de Lilliefors, la prueba Cramer -Von Mises, la prueba de Anderson -Darling, el Test de D’Agostino -Pearson, La prueba Jarque-Bera y la prueba de chi cuadrado. Las comparaciones de potencia de estas ocho pruebas se obtuvieron a través de la simulación Monte Carlo de los datos de muestra generados a partir de distribuciones alternativas que siguen distribuciones simétricas de cola corta, de cola larga y asimétrica. Nuestros resultados de simulación muestran que para las distribuciones simétricas de cola corta, las pruebas de D’Agostino y Shapiro-Wilk tienen una mejor potencia. Para distribuciones simétricas de cola larga, el poder de las pruebas Jarque-Bera y D’Agostino es bastante comparable con la prueba Shapiro-Wilk. En cuanto a las distribuciones asimétricas, la prueba Shapiro -Wilk es la prueba más poderosa seguida de la prueba de Anderson -Darling.

    La importancia de la distribución normal es innegable ya que es una suposición subyacente de muchos procedimientos estadísticos. También es la distribución más utilizada en teoría y aplicaciones estadísticas. Por lo tanto, cuando se realiza un análisis estadístico utilizando métodos paramétricos, validar el supuesto de normalidad es de preocupación fundamental para el analista. Un analista a menudo concluye que la distribución de los datos «es normal» o «no normal» en función de la exploración gráfica (gráfico Q – Q, histograma o gráfico de caja) y prueba formal de normalidad. Aunque los métodos gráficos son útiles para verificar la normalidad de los datos de una muestra, no pueden proporcionar evidencia concluyente formal de que se mantenga la suposición normal. El método gráfico es subjetivo como lo que parece una «distribución normal» para uno puede no ser necesariamente así para los demás. Además, se requiere una gran experiencia y un buen conocimiento estadístico para interpretar el gráfico correctamente. Por lo tanto, en la mayoría de los casos, se requieren pruebas estadísticas formales para confirmar la conclusión de los métodos gráficos.

    Hay un número significativo de pruebas de normalidad disponibles en la literatura. D’Agostino y Stephens 1 proporcionaron una descripción detallada de varias pruebas de normalidad. Algunas de estas pruebas están construidas para aplicarse bajo ciertas condiciones o supuestos. Extensos estudios sobre la tasa de error de tipo I y el poder de estas pruebas de normalidad se han discutido en 1–9. La mayoría de estas comparaciones se llevaron a cabo utilizando pruebas de normalidad seleccionadas y tamaños de muestra pequeños seleccionados. Algunos usan valores críticos tabulados, mientras que otros usan valores críticos simulados. En consecuencia, todavía hay resultados contradictorios sobre cuáles es la prueba óptima o mejor y estos pueden engañar y, a menudo, confundir a los profesionales sobre qué prueba debe usarse para un tamaño de muestra dado.

    Una búsqueda sobre las pruebas de normalidad disponibles en paquetes de software estadístico como SAS, SPSS, Minitab, Splus, Statistica, Statgraphics, Stata, IMSL Biblioteca, MATLAB y R reveló que las pruebas de normalidad comúnmente disponibles en estos software son: Chi-Squared (CSQ CSQ (CSQ (CSQ (CSQ (CSQ (CSQ (CSQ (CSQ (CSQ (CSQ (CSQ (CSQ (CSQ ) Prueba de bondad de ajuste, la prueba de cramer-von Mises (CVM), la prueba de Kolmogorov-Smirnov (referida como KS en adelante), la prueba de Anderson-Darling (AD), la prueba Shapiro-Wilk (SW), la Prueba de Lilliefors (LL), la prueba Shapiro-Francia, la prueba de Ryan-Joiner y la prueba Jarque-Bera (JB).

    ¿Cómo se hace la prueba de normalidad?

    La ingesta de normalidad es mucho más importante, está tratando con pequeñas dimensiones de muestra en lugar de grandes.

    Las distribuciones normales son simétricas, por lo tanto, «iguales» de ambos lados de la línea media, y no presentan extremos o valores atípicos. Estas dos características de distribución se pueden verificar a través de gráficos. Primero, decidimos que los datos relacionados con la grasa corporal estaban «lo suficientemente cerca» de la norma para que pudieran insertarlos en la ingesta de normalidad. La siguiente figura muestra un diagrama de las cuantales normales para hombres y mujeres, para apoyar la decisión tomada.

    También es posible realizar una prueba formal para la verificación de la normalidad a través del software. La figura anterior muestra los resultados de una prueba para verificar la normalidad realizada con el software JMP. Realizamos pruebas separadas para cada grupo. Tanto la prueba en los hombres como la prueba en las mujeres muestran que no es posible rechazar la hipótesis de una distribución normal. Por lo tanto, podemos suponer que los datos sobre grasa corporal en hombres y mujeres tienen una distribución normal.

    Probar variaciones desiguales es complicada. No mostraremos los cálculos en detalle, sino los resultados del software JMP. La siguiente figura ilustra los resultados de una prueba de varianza desigual de datos sobre grasa corporal.

    Sin entrar en los detalles de los diferentes tipos de pruebas para variaciones desiguales, en este caso usaremos la prueba de F. antes de proceder, decidimos aceptar un riesgo del 10 % de concluir que las variaciones son las mismas cuando en realidad no lo son . Por lo tanto, tendremos α = 0.10.

    ¿Cómo se realiza una prueba de normalidad?

    Una gran cantidad de pruebas están ampliamente disponibles. Muchas pruebas están especializadas para un trastorno particular o grupo de trastornos relacionados (que generalmente se describen con los trastornos apropiados en este libro). Otras pruebas se usan comúnmente para una amplia gama de trastornos.

    Evaluar la gravedad de un trastorno para que se pueda planificar el tratamiento

    A veces se usa una prueba para más de un propósito. Un análisis de sangre puede mostrar que una persona tiene muy pocos glóbulos rojos (anemia). La misma prueba puede repetirse después del tratamiento para determinar si el número de glóbulos rojos ha vuelto a la normalidad. A veces, se puede tratar un trastorno al mismo tiempo que se realiza una prueba de detección o diagnóstico. Por ejemplo, cuando la colonoscopia (examen del interior del intestino grueso con un tubo de visualización flexible) detecta los crecimiento (pólipos), se pueden eliminar antes de que se completen la colonoscopia.

    Existen diferentes tipos de pruebas médicas, pero las líneas que las separan a menudo se vuelven borrosas. Por ejemplo, la endoscopia del estómago permite al examinador ver el interior del estómago, así como obtener muestras de tejido para su examen en un laboratorio. Las pruebas suelen ser uno de los seis tipos siguientes.

    Líquido que rodea la médula espinal y el cerebro (líquido cefalorraquídeo)

    Con menos frecuencia, se analizan sudor, saliva y líquido del tracto digestivo (como los jugos gástricos). A veces, los fluidos analizados están presentes solo si hay un trastorno presente, como cuando el líquido se acumula en el abdomen, causando ascitis o en el espacio entre la membrana de dos capas que cubre los pulmones y recubre la pared del pecho (pleura), causando derrame pleural.

    ¿Cuándo se realiza la prueba de normalidad?

    Recientemente me he encontrado con algunos estudios de investigación e informes internos de mi empresa donde se realizan múltiples pruebas de comparación media.

    El procedimiento es a menudo el siguiente: primero, los datos se verifican para determinar la normalidad. Si la normalidad no se rechaza (con un <5% de valor P), se realiza una prueba t para comparar medias. De lo contrario, se utilizan pruebas no paramétricas.

    Sin embargo, a partir de mi comprensión de las estadísticas, veo algo muy mal en ese enfoque:

    Primero, no hay datos del mundo real son normales. Las muestras pequeñas son la única razón por la cual la normalidad no es rechazada.

    Segundo: a menudo es el caso que, al hacer el mismo experimento en condiciones ligeramente diferentes (invierno/verano, el año pasado/este año, aquí/unos km de distancia…), logramos rechazar la normalidad solo algunas veces algunas veces. , lo que resulta en elegir un procedimiento de prueba diferente una vez que ya estudiamos los datos. Esto me recuerda un poco de encogido

    Tercero: si solo nos importan los valores medios, siempre podemos realizar una prueba t. Podemos obtener diferencias significativas entre las poblaciones en una prueba no paramétrica, incluso si todos tienen la misma media, varianza (o cualquier otra magnitud de interés)

    Entonces, en resumen: ¿este enfoque es legítimo a pesar de todos estos problemas? ¿Bajo que circunstancias? ¿Son reales esos problemas o me estoy perdiendo algo?

    Si tiene un tamaño de muestra pequeño, entonces no tendrá suficiente potencia para detectar una verdadera desviación de la normalidad; $ P GE 0.05 $ En una prueba de normalidad no demuestra normalidad, simplemente no lo descarta en ese límite de probabilidad (arbitraria).

    ¿Cuándo usar Kolmogorov-Smirnov y cuando Shapiro Wilk?

    Realmente no puede comparar los dos ya que el Kolmogorov-Smirnov es para una distribución completamente especificada (por lo que si está probando la normalidad, debe especificar la media y la varianza; no se pueden estimar a partir de los datos*), mientras que El Shapiro-Wilk es para la normalidad, con media y varianza no especificadas.

    * Tampoco puede estandarizar mediante el uso de parámetros estimados y probar para la normalidad estándar; Eso es en realidad lo mismo.

    Una forma de comparar sería complementar el Shapiro-Wilk con una prueba de media especificada y varianza en una normal (combinando las pruebas de alguna manera), o al ajustar las tablas KS para la estimación de los parámetros (pero entonces ya no es distribución -libre).

    Existe dicha prueba (equivalente al Kolmogorov -Smirnov con parámetros estimados): la prueba de Lilliefors; La versión de prueba de normalidad podría ser válida en comparación con el Shapiro-Wilk (y generalmente tendrá menor potencia). Más competitivo es la prueba de Anderson-Darling (que también debe ajustarse para la estimación de parámetros para que una comparación sea válida).

    En cuanto a lo que prueban: la prueba KS (y los Lilliefors) analiza la mayor diferencia entre el CDF empírico y la distribución especificada, mientras que el Shapiro Wilk compara efectivamente dos estimaciones de varianza; La francia Shapiro estrechamente relacionada puede considerarse como una función monotónica de la correlación cuadrada en una gráfica Q-Q; Si recuerdo correctamente, el Shapiro-Wilk también tiene en cuenta las covarianzas entre las estadísticas de orden.

    ¿Cuándo se debe utilizar Kolmogorov-Smirnov?

    Las pruebas de hipótesis se usan en muchas aplicaciones y la metodología parece bastante sencilla. Sin embargo, muchas veces, tendemos a pasar por alto los supuestos subyacentes y debemos preguntar: ¿estamos comparando manzanas con naranjas? La pregunta también surge cuando los científicos de datos deciden descartar las observaciones basadas en las características faltantes.

    Imagine que tenemos características F1, F2,… FN y una variable objetivo binaria y. Suponiendo que muchas observaciones tienen información faltante para una o más características, decidimos eliminar estas observaciones (filas). Al hacerlo, podríamos haber alterado la distribución de una característica FK. Para formular esto como una pregunta: ¿Las observaciones de caída cambian la distribución de características? ¿Es este cambio significativo?

    En este artículo, vamos a presentar algunas suposiciones de la prueba t y cómo la prueba de Kolmogorov-Smirnov (KS) puede validar o desacreditar esos supuestos. Dicho esto, es crucial afirmar desde el principio que la prueba t y la prueba KS están probando cosas diferentes.

    Hay situaciones en las que debemos dudar de los resultados de una prueba t. La prueba t supone que las situaciones producen datos normales que difieren solo en el sentido de que el resultado promedio en una situación es diferente del resultado promedio de la otra situación.

    Dicho esto, si aplicamos la prueba t a los datos extraídos de una distribución no normal, probablemente estemos aumentando el riesgo de errores. Según el teorema del límite central (CLM), la prueba t se vuelve más robusta a medida que los grupos de control/tratamiento se vuelven lo suficientemente grandes.

    ¿Cuándo se usa Shapiro Wilk?

    Todas las técnicas anteriores pueden proporcionar información útil para ayudarnos a decidir si es probable que los datos de muestra provengan o no provenir de una distribución normal. Sin embargo, a veces la respuesta aún no está clara, y sería útil tener una forma de tomar una decisión formal sobre si es probable que este sea el caso o no. Hay una serie de métodos más sofisticados para ayudarnos a responder tales preguntas. Una de uso común para muestras pequeñas es la prueba Shapiro -Wilk.

    La prueba Shapiro -Wilk es una prueba de hipótesis, por lo que seguiremos la lista de verificación para las pruebas de hipótesis que presentamos por primera vez en la Sección 5.2.

    Forma hipótesis nulas y alternativas y elija un cierto grado de confianza: para la prueba Shapiro -Wilk, la hipótesis nula es que la muestra proviene de una distribución normal, y la hipótesis alternativa es que no lo hace. Podemos elegir cualquier grado de confianza, pero las opciones comunes son 95% y 99%.

    Calcule una estadística de prueba: Hacemos esto clasificando primero los valores de la muestra en orden creciente: denotamos estos datos clasificados por (x (1) x (2)… x (n – 1) x (n)), donde n es el es el es el tamaño de la muestra. A continuación, calculamos b = a1 (x (n) −x (1))+a2 (x (n – 1) −x (2))…, donde a1, a2,… son los coeficientes de la tabla A.6 ( ver el Apéndice). Finalmente, el estadístico de prueba se calcula como Calcw = B2 (N – 1) S2, donde S es la desviación estándar de muestra.

    Compare la estadística de prueba con un valor crítico: los valores W críticos para una prueba Shapiro -Wilk se muestran en la Tabla A.7 en el Apéndice. Denotamos el valor crítico de Tab W.

    Artículos Relacionados:

    Más posts relacionados:

    Deja una respuesta

    Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *