Hay muchos tipos de pruebas no paramétricas. Los siguientes son los pocos:
Prueba de signo: es una prueba primitiva que se puede aplicar cuando no se cumplen las condiciones típicas para la prueba t de muestra única. La prueba en sí es muy simple e implica hacer una prueba binomial en los signos.
Prueba mediana de Mood (para dos muestras): esta es una versión de muestra primitiva de la prueba de signo mencionada anteriormente. Es estimar si la mediana de dos muestras independientes es igual. Esta prueba se puede aplicar para más de dos muestras.
Prueba de rango firmado de Wilcoxon para una sola muestra: si los requisitos para la prueba t no se cumplen, esta prueba solo se puede usar si las dos muestras dependientes que se utilizarán se han derivado de poblaciones con una distribución ordinal. Esta es también una prueba primitiva. Tiene dos subtipos: la prueba exacta y la avanzada.
Prueba de Mann-Whitney para muestras independientes: esta es también una versión alternativa de la prueba t para dos poblaciones independientes. Esta prueba es completamente equivalente y se asemeja a la prueba de Wilcoxon de alguna manera. Esta prueba tiene tres tipos: la prueba exacta, el intervalo de confianza mediano y el avanzado.
Prueba de rango firmado de Wilcoxon para muestras emparejadas: esta prueba es principalmente una alternativa de la prueba t para muestras emparejadas, es decir, si los requisitos para la prueba t pareada no están satisfechos, entonces podemos realizar fácilmente esta prueba. Tiene dos métodos: el exacto y el avanzado.
Esta prueba es básicamente un tipo de prueba de pares coincidentes y se usa para analizar los datos antes y después de que se haya producido un evento. Nos dice si hay un cambio significativo en los datos antes y después de la ocurrencia de cualquier evento dicho. Use la prueba de McNemar con muestras emparejadas donde la variable dependiente es dicotómica.
¿Qué es una prueba paramétrica y ejemplos?
Un ejemplo de una prueba paramétrica sería una prueba t estándar. Se usa para determinar si hay una diferencia significativa entre las medias de los dos grupos. En nuestra investigación, la prueba t se utilizará para comparar los resultados derivados del grupo de prueba con los resultados del grupo de control. Un ejemplo de cuándo se usa una prueba t podría ser cuando el investigador necesita averiguar cuánto dinero están gastando varias personas en sus comestibles. Permitirá descubrir la media («Test T», 2016).
Un ejemplo de una prueba no paramétrica sería una prueba U de Mann-Whitney, que se usa de manera similar a una prueba t y es muy buena para determinar las distribuciones normales. Se podría observar un ejemplo de una prueba U de Mann-Whitney en psicología, donde se utiliza para comparar correlaciones entre los patrones de comportamiento y las actitudes en la prueba de los pacientes («Test U Mann-Whitney», 2016).
Cada tipo de prueba, ya sea paramétrico o no paramétrico, tiene varios supuestos que un investigador debe tomar antes de pasar con la prueba. En el caso de las pruebas paramétricas, los supuestos son que el investigador conoce la distribución variable. También supone que las variables de interés se miden en intervalos («diferencia entre la prueba paramétrica y no paramétrica», 2016).
Para las pruebas no paramétricas, por otro lado, se supone que las variables se calculan utilizando métodos nominales u ordinales. Se usa con frecuencia cuando las variables independientes no se miden en ninguna escala particular («diferencia entre la prueba paramétrica y no paramétrica», 2016).
¿Qué es una prueba paramétrica ejemplos?
Las estadísticas paramétricas son una rama de las estadísticas inductivas. Para derivar declaraciones sobre una población desconocida con la ayuda de datos de una muestra, las estadísticas inductivas suponen que los datos de observación x1,…, xn { displaystyle x_}, ldots, x_ {n}} de variable de variable aleatoriax1 ,…, xn { displayStyle x_ {1}, ldots, x_ {n}}. En las estadísticas paramétricas, también se supone que las variables aleatorias xi { displaystyle x_ {i}} provienen de una familia de distribuciones de probabilidad predeterminadas (a menudo: distribución normal), cuyos elementos están claramente determinados excepto un (finalmente dimensional) parámetro. [1]
Los métodos de análisis estadístico más conocidos son procedimientos paramétricos. [2]
En contraste, las estadísticas no paramétricas se encuentran. Dado que sus procedimientos no requieren suposición de distribución con respecto a las variables aleatorias xi { displaystyle x_ {i}}, también significan distribución -libre. [3]
Para probar una nueva terapia para reducir el colesterol, los valores de colesterol están determinados por diez sujetos antes y después del tratamiento. Los siguientes resultados de la medición:
Si la nueva terapia tiene un efecto, el promedio de las diferencias debería diferir significativamente de cero. La prueba paramétrica rechaza la hipótesis nula, mientras que la prueba no paramétrica no puede rechazarla. En la práctica, uno llevaría a cabo pruebas de un lado aquí.
¿Cómo identificar una prueba paramétrica?
Si H0 corresponde a la igualdad, H1 no corresponde necesariamente a una desigualdad del tipo PA ≠ Pb.
Pa ≠ Pb significa que el tratamiento A es mayor que el tratamiento B o el tratamiento B es mayor que el tratamiento
En algunos casos, no hay interés en demostrar que a b, solo queremos mostrar que a> B.
Ej: Un laboratorio quiere poner un nuevo medicamento B en el mercado para tratar el dolor lumbar crónico. El medicamento de referencia es efectivo, pero es costoso y conduce a muchos efectos secundarios que disminuyen su cumplimiento. El laboratorio no tiene interés en demostrar que el medicamento B es más efectivo que A porque sabe que ya es muy efectivo. Quiere montar que su nueva droga es al menos tan efectiva, pero que tiene la ventaja de costar menos y tener menos efectos secundarios.
Queremos estudiar la tasa de curación al mes. Nosotros ponemos:
H0: PA = Pb, los 2 tratamientos tienen la misma eficiencia.
H1: Pa La nueva hipótesis alternativa H1: PA Al reducir la «P», esto aumenta el poder del estudio para el mismo número de sujetos. Una variable categórica es una variable que incluye un número limitado de valores posibles, como el género (H/F) o el color del cabello (rubio, marrón, rojo, etc.). Una variable digital incluye un número infinito de valores, como salario, temperatura o peso. Tiene las muestras de dos grupos de individuos y desea comparar sus ingresos promedio. Es una variable digital. Las pruebas que puede usar son la prueba de Student Letest de Wilcoxon-Mann-Whitney, según si los grupos siguen una distribución normal (en forma de campana). Si tiene más de dos grupos en su estudio, como el origen étnico (africano, asiático, blanco, etc.) y desea comparar una variable digital (como el salario o el tamaño), necesitará una prueba estadística multigrupo como Anovat de Kruskal-Wallis. Para dos variables digitales, como el desempleo y el PIB, donde desea saber cómo se asocian, usa la correlación de Pearson o Spearman. Si trabaja con variables categóricas en las tablas de contingencia, por ejemplo, para ver cuán imparcial y equitativo HR es atraer a los extranjeros, puede usar la prueba del ² (chi cuadrado) o la prueba exacta de Fisher. La estadística es una parte integral de la ciencia de datos y el aprendizaje automático. La estadística es un subcampo de matemáticas que se refiere a la formalización de las relaciones entre variables en forma de ecuaciones matemáticas. Intenta encontrar relaciones entre variables para predecir los resultados. Las estadísticas se trata, que involucra el estudio del análisis de recolección, la interpretación, la presentación y la organización. Hay muchas pruebas estadísticas para medir la relación dentro o entre variables. Durante un proyecto de ciencia de datos, a menudo surge una pregunta en la mente de los científicos de datos, lo que las técnicas estadísticas utilizarán para qué tipo de datos o variables y cuándo. En este artículo, puede leer sobre una comprensión básica de varios tipos de pruebas estadísticas y cuándo y cómo usarlas para su conjunto de datos. Una prueba de muestra es un procedimiento estadístico considerando el análisis de una columna o característica. Puede ser un análisis de distribución porcentual (variable categórica) o análisis medio (variable continua). Por otro lado, una prueba de dos muestras es un procedimiento estadístico para comparar o calcular la relación entre dos variables aleatorias. Como se discutió anteriormente, una prueba de una muestra implica la prueba de hipótesis de una variable aleatoria. Artículos Relacionados:
¿Cómo elegir una prueba no paramétrica?
¿Cómo saber qué prueba estadística usar?
