Estadística paramétrica: población y muestra aleatoria

Es prácticamente imposible medir por completo a toda una población porque tienden a ser extremadamente grandes. En consecuencia, los investigadores deben medir un subconjunto de la población para su estudio. Estos subconjuntos se conocen como muestras.

Por lo general, el objetivo de un investigador es extraer una muestra representativa de su población objetivo. Una muestra representativa refleja las propiedades de la población. Usando este enfoque, los investigadores pueden generalizar los resultados de su muestra a la población. Realizar estadísticas inferenciales válidas requiere una relación sólida entre la población y una muestra.

En una sección posterior, aprenderá sobre la importancia de las muestras representativas y cómo obtenerlas.

Una inferencia estadística es cuando usa una muestra para inferir las propiedades de toda la población de la que se extrajo. Obtenga más información sobre cómo hacer inferencias estadísticas.

Las subpoblaciones comparten atributos adicionales. Por ejemplo, la población de los Estados Unidos contiene las subpoblaciones de hombres y mujeres. También puede subdividirlo de otras maneras, como la región, la edad, el estado socioeconómico, etc. Diferentes estudios que involucran a la misma población pueden dividirlo en diferentes subpoblaciones dependiendo de lo que tenga sentido para los datos y los análisis.

Comprender las subpoblaciones en su estudio lo ayuda a comprender el tema más a fondo. También pueden ayudarlo a producir modelos estadísticos que se ajusten mejor a los datos. Las subpoblaciones son particularmente importantes cuando tienen características que son sistemáticamente diferentes a la población general. Cuando analiza sus datos, debe conocer estas divisiones más profundas. De hecho, puede tratar las subpoblaciones relevantes como factores adicionales en análisis posteriores.

¿Cuándo se aplica la estadística paramétrica?

Estos se utilizan para probar hipótesis utilizando pruebas de fortaleza de asociación o significación estadística. Este último determina si es probable que las diferencias observadas entre los grupos sean diferencias «reales» o debido al azar.

Estadísticas paramétricas: requieren la suposición de una población o distribución normal. Se utilizan con nivel de intervalo y datos de relación. Los ejemplos son:

Prueba t que determina si la diferencia estadística entre las puntuaciones medias de dos grupos es significativa; y

Estadísticas no paramétricas: se consideran libres de distribución, es decir, no requieren la suposición de una población normal. Como implican suposiciones más débiles, son menos potentes que las pruebas paramétricas y requieren muestras más grandes para producir el mismo nivel de importancia. El nivel de importancia es la probabilidad de que un resultado (por ejemplo, la diferencia observada entre dos grupos de edad en la muestra y su frecuencia de uso de la biblioteca) se haya obtenido por casualidad. Por lo general, se establece en 0.05 o 0.01, lo que significa que hay una probabilidad del 5% o 1% de que la posibilidad haya causado el resultado. Si se usa el nivel de significancia de 0.05, lo dirá, debido a que solo hay una probabilidad del 5% de que su resultado se deba al azar, es probable (aunque no seguro) que exista una relación estadísticamente significativa entre las variables. Tenga en cuenta que estas pruebas estadísticas se aplican a una comparación de variables, en lugar de solo una variable, por ejemplo, los niveles de edad. Es importante tener en cuenta que el análisis estadístico de los resultados de la investigación nunca puede ser definitivamente una hipótesis, solo lo respalda en ciertos niveles de probabilidad.

¿Cuándo se denomina Qué es una investigación paramétrica y no paramétrica?

La diferencia entre las estadísticas paramétricas y no paramétricas se basa en el conocimiento o la ignorancia de la distribución de probabilidad de la variable que se estudiará.

Estadísticas paramétricas Utilice cálculos y procedimientos suponiendo que sepa cómo se distribuye la variable aleatoria que se estudiará. Por el contrario, las estadísticas no paramétricas utilizan métodos para descubrir cómo se distribuye un fenómeno y, posteriormente, utiliza técnicas de estadísticas paramétricas.

Las definiciones de ambos conceptos se ilustran a continuación:

  • Estadísticas paramétricas: se refiere a una parte de la inferencia estadística que utiliza criterios de estadística y resolución basados ​​en distribuciones conocidas.
  • Estadísticas no paramétricas: es una rama de la inferencia estadística cuyos cálculos y procedimientos se basan en distribuciones desconocidas.

Utilizan diferentes métodos porque sus objetivos son diferentes. Sin embargo, son dos ramas complementarias. No siempre sabemos con certeza, de hecho, rara vez sabemos, cómo se distribuye una variable aleatoria. Por lo tanto, es necesario usar técnicas para averiguar cómo se ve más la distribución.

Una vez descubierto como se distribuye, podemos realizar cálculos y técnicas específicas para este tipo de distribución. Dado que, por ejemplo, el valor promedio en una distribución de Poisson no se calcula de la misma manera que normal.

Aun así, es importante tener en cuenta que las estadísticas paramétricas son mucho más conocidas y populares. Muchas veces, en lugar de usar estadísticas no paramétricas, se supone directamente que una variable se distribuye de una manera. Es decir, comienza desde una hipótesis inicial que se considera correcta. Sin embargo, cuando desea hacer un trabajo rigurosamente, si no está seguro, debe usar estadísticas no paramétricas.

¿Qué es una muestra paramétrica?

El modelado paramétrico es un tipo de modelado de tres dimensiones que difiere del modelado sólido clásico porque se basa en la implementación de varios componentes/partes del modelo entre sí o con números o características que son parámetros definidos con precisión.

Estas pruebas se usan cuando se viola al menos una de las contrataciones en la base de la prueba de estudiante T o EVA. Se llaman «no patétricos» porque no implican la estimación de los parámetros estadísticos (medios, desviación estándar, varianza, etc.).

La prueba de Mann-Whitney es la alternativa no paramétrica a la prueba t a muestras independientes. Se usa cuando las muestras a comparar no presentan una distribución normal. Los requisitos necesarios son la independencia de los grupos y la homosquedasticidad. Además, debe tener datos ordinales.

La prueba t de Student para muestras independientes se usa para determinar si hay una diferencia estadísticamente significativa entre los promedios de dos grupos independientes. Por ejemplo, puede usar esta prueba para evaluar si hay una diferencia en los tiempos de espera promedio en la sala de emergencias entre dos hospitales diferentes.

La prueba del cuadrado de Pearson (o de la bondad de la adaptación) es una prueba no paramétrica aplicada a grandes muestras cuando en presencia de variables nominales y desea verificar si la muestra se extrajo de una población con una distribución predeterminada o que dos o más muestras derivan de…

Artículos Relacionados:

Related Posts

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *