Estadística paramétrica: ejemplos resueltos para aprender a calcular la media, la varianza y el desvío típico

En mi artículo anterior, pasamos por lo que, cómo y por qué de las pruebas de hipótesis con una breve introducción sobre las pruebas estadísticas y el papel que desempeñan para ayudarnos a determinar la significación estadística. En este artículo y en los próximos pocos, analizaremos más profundamente las pruebas estadísticas: los diferentes tipos de pruebas, las pruebas mismas y qué prueba deben usarse para qué situación.

Como se mencionó anteriormente, las pruebas estadísticas son métodos estadísticos que nos ayudan a rechazar o no a rechazar nuestra hipótesis nula. Se basan en distribuciones de probabilidad y pueden ser de una cola o dos colas, dependiendo de las hipótesis que hemos elegido.

Hay otras formas en que las pruebas estadísticas pueden diferir y una de ellas se basa en sus supuestos de la distribución de probabilidad que siguen los datos en cuestión.

  • Las pruebas paramétricas son aquellas pruebas estadísticas que suponen que los datos siguen aproximadamente una distribución normal, entre otros supuestos (los ejemplos incluyen la prueba Z, la prueba t, ANOVA). Nota importante: la suposición es que los datos de toda la población siguen una distribución normal, no los datos de la muestra con los que está trabajando.
  • Las pruebas no paramétricas son aquellas pruebas estadísticas que no asumen nada sobre la distribución seguida de los datos y, por lo tanto, también se conocen como pruebas libres de distribución (los ejemplos incluyen Chi-Square, Mann-Whitney U). Las pruebas no paramétricas se basan en los rangos de diferentes puntos de datos.

Cada prueba paramétrica tiene un equivalente no paramétrico, lo que significa para cada tipo de problema que tiene que habrá una prueba en ambas categorías para ayudarlo.

Sin embargo, la selección de qué conjunto de pruebas es apto para el problema en cuestión no es tan blanco y negro. Si sus datos no siguen una distribución normal, las pruebas no paramétricas no son necesariamente la elección correcta. La decisión depende de otros factores, como el tamaño de la muestra, el tipo de datos que tiene, qué medida de tendencia central representa mejor los datos, etc. Ciertas pruebas paramétricas pueden funcionar bien en datos no normales si el tamaño de la muestra es lo suficientemente grande, para Ejemplo, si el tamaño de su muestra es mayor que 20 y sus datos no son normales, una prueba t de una muestra aún lo beneficiará. Pero, si la mediana representa mejor sus datos, entonces está mejor con una prueba no paramétrica.

¿Cuándo utilizar estadística paramétrica?

La prueba t para una muestra tiene como objetivo determinar si el promedio de una población difiere significativamente con un valor conocido o supuesto definido. Por lo tanto, la prueba calcula estadísticas descriptivas para las variables de contraste al mismo tiempo que la prueba t (1).

Esta prueba se usa cuando la comparación es entre los promedios de dos poblaciones independientes. Es decir, los individuos de las dos poblaciones son diferentes. Por ejemplo, la comparación entre hombres y mujeres (1).

Esta prueba es una alternativa para comparar dos promedios. Este es principalmente el supuesto caso en el que las dos poblaciones no son independientes.

En este caso, estamos tratando con poblaciones que están vinculadas entre sí. Esta situación ocurre, por ejemplo, cuando se observa un grupo de individuos antes de una cierta intervención, luego después de esta intervención.

En el caso de que se deben comparar más de dos muestras, se debe utilizar el análisis de varianza también llamado ANOVA. Esta es una prueba estadística que permite comparar simultáneamente los promedios de más de dos poblaciones.

Todas estas pruebas son muy comunes en la investigación de psicología, pero a menudo son abusivos. Sin embargo, siempre debemos tener en cuenta que los requisitos previos son importantes. De hecho, nos indican si podemos usar pruebas paramétricas o si debemos usar pruebas no paramétricas.

¿Cuando no usamos una muestra paramétrica?

La razón por la que las pruebas paramétricas a veces son más poderosas que la aleatorización y las pruebas basadas en rangos es que las pruebas paramétricas utilizan información adicional sobre los datos: la naturaleza de la distribución a partir de la cual se supone que han surgido los datos. Sin embargo, su ventaja de poder no es invariante, ya que a menudo es mínima, pero a veces tienen menos poder.

Las pruebas no paramétricas suelen ser casi tan poderosas como las pruebas paramétricas en las circunstancias en que las pruebas paramétricas son apropiadas. Sin embargo, en circunstancias en las que la prueba paramétrica puede no ser apropiada porque sus suposiciones están demasiado violadas, la prueba no paramétrica puede ser más poderosa.

Estoy pensando en usar la prueba U Mann Whitney sobre la prueba clásica del estudiante.

En términos generales, hay mucho que decir de Mann-Whitney

Pero se le advirtió que perdería el poder y requeriría un tamaño de muestra más alto para compensar.

No lo hace, en general. En muchos casos, todo lo contrario.

Si los supuestos de la prueba t se mantienen perfectamente, y la prueba no paramétrica que usa es el Mann-Whitney, entonces pierde una pequeña cantidad de potencia $^ dagger $, porque la prueba t es la prueba más poderosa en la normalidad bajo una alternativa de cambio de ubicación. (La prueba t utiliza toda la información disponible en la muestra, si los supuestos se mantienen: la misma varianza, distribución normal, independencia, etc. Pero si no tiene distribuciones normales, no lo hace; y en muchos de estos casos los casos de estos Mann-Whitney en realidad hace un uso más eficiente de la información disponible)

¿Cómo elegir una prueba paramétrica?

Consideraciones generales: se da una población normalmente distribuida con un medio desconocido. Considere el esquema de muestreo aleatorio simple. Hipótesis estadísticas: considere un tipo simple de hipótesis y una hipótesis alternativa compuesta unidireccional. Prueba de estadísticas: se elige el estimador de varianza de muestra correcto, después de estimar el promedio desconocido de la población con el promedio de la muestra. Después de una transformación apropiada, la prueba estadística se distribuyó como un V.C. Chi-quadrato con (N-1) grados de libertad, asumiendo la hipótesis de nada cierto. La regla de decisión y elección de la región crítica óptima de la amplitud α: la región crítica óptima (RCO) de la amplitud α se deriva sobre la base del lema de Neyman-Pearson. Ejemplo y extracción de decisión: se determina el valor observado de la prueba estadística para la muestra extraída y, sobre la base de la regla de decisión, la prueba termina al aceptar la hipótesis nada ni rechazarla. Si el valor observado de la prueba de estadísticas cae dentro del RCO rechaza la hipótesis nada con un nivel de importancia igual a α.

Región crítica óptima de amplitud α: en la prueba paramétrica unidireccional en varianza

Problema
Un fabricante de la empresa de sistemas de seguridad vial encuentra una varianza de la longitud de las barras de metal que sostienen la barandilla igual a 250 mm. Después de la reparación de una máquina, se extrae una muestra de 13 bares para verificar si hubo una disminución significativa en la varianza del diámetro. A continuación se muestran los datos relacionados con la muestra extraída:

126, 124, 91, 100, 104, 95, 101, 114, 134, 117, 95, 116, 139

Verifique el nivel α = 0.05 si la disminución en la varianza de los diámetros es significativa al suponer que la población se distribuye como normal.

Artículos Relacionados:

Más posts relacionados:

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *