Los cursos de estadísticas, especialmente para los biólogos, asumen fórmulas = comprender y enseñar cómo hacer estadísticas, pero ignoran en gran medida lo que esos procedimientos suponen, y cómo sus resultados son incorrectos cuando esos supuestos no son razonables. El mal uso resultante es, digamos, predecible…
El ANOVA unidireccional de Kruskal-Wallis es un método no paramétrico para comparar K muestras independientes. Es más o menos equivalente a un ANOVA paramétrico unidireccional con los datos reemplazados por sus filas. Cuando las observaciones representan distribuciones muy diferentes, debe considerarse como una prueba de dominio entre las distribuciones. Si las observaciones originales se distribuyen de manera idéntica,
Se puede interpretar como pruebas para una diferencia entre las medianas. Si también se supone que las observaciones se distribuyen simétricamente, se puede interpretar como pruebas para una diferencia entre las medias. Hay una considerable confusión en la literatura sobre este asunto. Algunos autores afirman inequívocamente que no hay suposiciones de distribución, otros que la suposición de homogeneidad de las variaciones se aplica al igual que para el ANOVA paramétrico. La confusión resulta de cómo interpreta un resultado significativo. Si desea comparar medianas o medios, entonces la prueba de Kruskal-Wallis también supone que las observaciones en cada grupo se distribuyen de manera ideal e independiente aparte de la ubicación. Si puede aceptar la inferencia en términos de dominio de una distribución sobre otra, entonces no hay supuestos de distribución.
El análisis de varianza no paramétrico se usa casi tan ampliamente y con frecuencia como el ANOVA paramétrico. Su uso generalmente se justifica sobre la base de que no se cumplen los supuestos para ANOVA paramétricos. Esto puede conducir al uso excesivo de Kruskal-Wallis ANOVA, porque en muchos casos una transformación logarítmica normalizaría los errores. Si las condiciones se cumplen para una prueba paramétrica, entonces el uso de una prueba no paramétrica da como resultado una pérdida de potencia injustificada. La prueba de Kruskal-Wallis es una mejor opción solo si no se puede cumplir la suposición (aproximada) de normalidad de las observaciones, o si uno analiza una variable ordinal.
El uso indebido más común de Kruskal-Wallis es aceptar un resultado significativo que indique una diferencia entre medias o medianas, incluso cuando las distribuciones son muy diferentes. Dichos resultados solo deben interpretarse en términos de dominio. Cuando las distribuciones son similares, las medianas deben informarse en lugar de medios ya que ellos (en forma de rangos medios) son lo que la prueba realmente está comparando. De hecho, las parcelas de bigotes y bigotes con rango mediano, intercuartil, valores atípicos y extremos deben ser el requisito mínimo para informar los resultados de una prueba de Kruskal-Wallis. Los resultados aparentemente contradictorios pueden tener mucho más sentido si las medianas se hubieran informado en lugar de medios, ya que la media es demasiado sensible a los valores atípicos. Las comparaciones múltiples después de una prueba de Kruskal-Wallis están sujetas a las mismas restricciones que después de un ANOVA paramétrico. Los medios ordenados no deben compararse utilizando una prueba de comparación múltiple simple: hay métodos no paramétricos más apropiados disponibles. También tiene poco sentido hacer comparaciones múltiples si uno está llevando a cabo un ANOVA de efectos aleatorios. El efecto general de ‘tratamiento’ se puede evaluar con Kruskal-Wallis, pero el componente de varianza adicional y/o el coeficiente de correlación intraclase se obtiene mejor utilizando el modelo paramétrico.
¿Qué es el análisis no paramétrico?
Las pruebas no paramétricas son los métodos matemáticos utilizados en las pruebas de hipótesis estadística, que no hacen suposiciones sobre la distribución de frecuencia de las variables que se evaluarán. El experimento no paramétrico se usa cuando hay datos sesgados, y comprende técnicas que no dependen de los datos relacionados con ninguna distribución particular.
La palabra no paramétrica no significa que estos modelos no tengan ningún parámetro. El hecho es que las características y el número de parámetros son bastante flexibles y no predefinidos. Por lo tanto, estos modelos se denominan modelos sin distribución.
Cada vez que algunos supuestos en la población dada son inciertas, utilizamos pruebas no paramétricas, que también se consideran contrapartes paramétricas. Cuando los datos no se distribuyen normalmente o cuando están en un nivel ordinal de medición, tenemos que usar pruebas no paramétricas para el análisis. La regla básica es utilizar una prueba t paramétrica para datos distribuidos normalmente y una prueba no paramétrica para datos sesgados.
La prueba t de muestra pareada se usa para que coincida con los puntajes de dos medios, y estos puntajes provienen del mismo grupo. La prueba t de muestras de pares se usa cuando las variables son independientes y tienen dos niveles, y esos niveles son medidas repetidas.
Las cuatro técnicas diferentes de pruebas paramétricas, como la prueba U de Mann Whitney, la prueba de signo, la prueba de rango firmado de Wilcoxon y la prueba de Kruskal Wallis se analizan aquí en detalle. Sabemos que las pruebas no paramétricas se basan completamente en las filas, que se asignan a los datos ordenados. Los cuatro tipos diferentes de prueba no paramétrica se resumen a continuación con sus usos, hipótesis nula, estadística de prueba y la regla de decisión.
¿Qué es el análisis paramétrico?
Los ingenieros a menudo confían en estudios paramétricos para analizar el rendimiento del dispositivo dentro de diferentes conjuntos de parámetros y a menudo se preguntan si es posible ir más allá de eso para encontrar directamente la mejor solución. Los métodos de optimización pueden ayudar buscando automáticamente el espacio de diseño de manera eficiente y encontrando la solución óptima.
Primero definamos el análisis paramétrico, luego exploremos las diferencias entre estos estudios y la optimización.
Un parámetro se define como un factor numérico u otro factor medible que forma uno de un conjunto que define un sistema o conjuntos de condiciones de su funcionamiento. Los parámetros son elementos de un sistema que son útiles o críticos para identificar un sistema o evaluar el rendimiento, el estado o la condición de un sistema. Como ejemplo, los parámetros de un movimiento de modelado de ecuaciones podrían incluir la mecánica, las masas, las dimensiones y las formas, y las densidades y viscosidades de los fluidos dentro del sistema.
Un análisis paramétrico, también conocido como análisis de sensibilidad, es el estudio de la influencia de diferentes parámetros geométricos o físicos o ambos en la solución del problema. El análisis paramétrico es una herramienta importante para la exploración del diseño, por ejemplo, para examinar la influencia de la longitud del espacio de aire en la fuerza magnética en un contactor.
El suite de simulación de Altair ofrece a los ingenieros y diseñadores una gama de herramientas de análisis paramétricos para una variedad de casos de uso. El escenario de análisis puede ser único o multiparamétrico, incluido el tiempo de parámetros y/o los parámetros geométricos o físicos. Los usuarios de Altair pueden realizar estudios paramétricos basados en fluidos y rendimiento térmico, electromagnética, movimiento, vibro acústica, estructuras y más.
¿Cómo saber si una muestra es paramétrica o no paramétrica?
Los fundamentos de la ciencia de datos incluyen ciencias de la computación, estadísticas y matemáticas. Es muy fácil quedar atrapado en los últimos y más grandes algoritmos más poderosos: redes neuronales convolucionales, aprendizaje de refuerzo, etc.
Como investigador de ML/salud y desarrollador de algoritmos, a menudo empleo estas técnicas. Sin embargo, algo que he visto abundante en la comunidad de ciencias de datos después de haber capacitado ~ 10 años como ingeniero eléctrico es que si todo lo que tiene es un martillo, todo parece un clavo. Baste decir que si bien muchos de estos algoritmos emocionantes tienen una inmensa aplicabilidad, con demasiada frecuencia se pasan por alto los fundamentos estadísticos de la comunidad de ciencias de datos. He tenido la suerte de haber tenido cursos de pregrado y posgrado dedicados exclusivamente a las estadísticas, además de crecer con un estadístico para una madre. ¡Entonces este artículo es lo que probablemente será el primero de varios en compartir algunas pruebas estadísticas básicas y cuándo/dónde usarlas!
Una prueba paramétrica hace suposiciones sobre los parámetros de una población:
1. Normalidad: los datos en cada grupo deben distribuirse normalmente
2. Independencia: los datos en cada grupo deben muestrearse al azar e independientemente
4. Varianza igual: los datos en cada grupo deben tener una varianza aproximadamente igual
Si es posible, debemos usar una prueba paramétrica. Sin embargo, una prueba no paramétrica (a veces denominada prueba libre de distribución) no asume nada sobre la distribución subyacente (por ejemplo, que los datos provienen de una normalidad (distribución paramétrica).
¿Cuando una muestra es paramétrica?
Para investigar el número de muestras que son necesarias para satisfacer los requisitos para la prueba t de Student, iteramos sobre varios tamaños de muestra. Para cada tamaño de muestra, dibujamos muestras de varias distribuciones. Luego, se calculan los medios de las muestras y se ajusta una distribución normal a la distribución de las medias. En cada iteración, registramos la probabilidad log que describe qué tan bien la distribución normal se ajusta a las medias muestreadas. Consideraremos medios muestreados para haber abordado la distribución normal cuando la probabilidad de registro se vuelve positiva.
De acuerdo con las probabilidades positivas del registro del registro, la distribución beta produce normalmente medias distribuidas ya en un tamaño de muestra de 5. Las distribuciones normales, chi-cuadradas y de poisson producen medias normalmente distribuidas a tamaños de muestra de 20, 50 y 100, respectivamente. Finalmente, los medios de distribución del estudiante nunca se vuelven normales ya que la distribución con un grado de libertad tiene curtosis infinita (colas muy pesadas) de modo que el teorema del límite central no se mantenga.
Como verificación de los resultados, trazaremos los histogramas en el tamaño de la muestra de 5 y en el tamaño de la muestra donde la distribución media se volvió normal:
Estos resultados indican que el criterio log-probilitud es un proxy suficiente para la normalidad. Tenga en cuenta, sin embargo, que a partir de la inspección visual, la distribución beta inicial de las medias no parece más normal que la que surge de la distribución normal. Entonces, este resultado se puede tomar con un grano de sal. Mirando la distribución T de los estudiantes, podemos ver por qué sus medios no se distribuyen normalmente:
ronda (cuantil (significa $ estudiante), 2)
¿Cuando un estudio es no Parametrico?
Durante los últimos 30 años, el tamaño mediano de la muestra de los estudios de investigación publicados en revistas médicas de alto impacto ha aumentado muchos veces, mientras que el uso de pruebas no paramétricas ha aumentado a expensas de las pruebas t. Este artículo explora esta práctica paradójica e ilustra sus consecuencias.
Se utiliza un estudio de simulación para comparar las tasas de rechazo de la prueba de Wilcoxon-Mann-Whitney (WMW) y la prueba t de dos muestras para aumentar el tamaño de la muestra. Las muestras se extraen de distribuciones sesgadas con medios iguales y medianas, pero con una pequeña diferencia en la propagación. Se utiliza un estudio de caso hipotético para la ilustración y la motivación.
La prueba WMW produce, en promedio, valores p más pequeños que la prueba t. Esta discrepancia aumenta al aumentar el tamaño de la muestra, la asimetría y la diferencia en la propagación. Para datos muy sesgados, la proporción de P <0.05 con la prueba WMW puede ser mayor al 90% si las desviaciones estándar difieren en un 10% y el número de observaciones es de 1000 en cada grupo. Las altas tasas de rechazo de la prueba WMW deben interpretarse como el poder para detectar que la probabilidad de que una muestra aleatoria de una de las distribuciones sea menor que una muestra aleatoria de la otra distribución es mayor al 50%.
Las pruebas no paramétricas son más útiles para pequeños estudios. El uso de pruebas no paramétricas en grandes estudios puede proporcionar respuestas a la pregunta incorrecta, confundiendo así a los lectores. Para estudios con un gran tamaño de muestra, las pruebas t y sus intervalos de confianza correspondientes pueden y deben usarse incluso para datos muy sesgados.
En un artículo publicado en el New England Journal of Medicine (NEJM) en 2005, Horton y Switzer revisan el uso de métodos estadísticos en tres volúmenes del NEJM en 2004 y 2005 [1]. Dividen los métodos en 25 categorías, organizadas según el aumento de la complejidad, y enumeran las frecuencias en cada categoría. También se incluyen los resultados de encuestas anteriores de artículos publicados en la misma revista en 1978-1979 y en 1989. La Tabla 1 presenta las proporciones de artículos que contenían pruebas t y pruebas no paramétricas. En los tres puntos de tiempo, las pruebas t o las pruebas no paramétricas o ambas se usaron en más de la mitad de los artículos. En 1978-1979, se usaron cuatro pruebas t para cada prueba no paramétrica. En 2004–2005, las pruebas t y las pruebas no paramétricas se usaron con igual frecuencia.
¿Qué son pruebas paramétricas y no paramétricas?
Las pruebas paramétricas se basan en supuestas distribuciones estadísticas en los datos. En consecuencia, se deben verificar ciertas condiciones de validez para que el resultado de una prueba paramétrica sea confiable. Por ejemplo, la prueba t de Student para muestras independientes solo es confiable si los datos asociados con cada muestra siguen una distribución normal y si las variaciones de las muestras son homogéneas.
Las pruebas no paramétricas no se basan en distribuciones estadísticas. Por lo tanto, se pueden usar incluso si no se verifican las condiciones de validez de las pruebas paramétricas.
Las pruebas paramétricas a menudo tienen pruebas no paramétricas equivalentes. Encontrará una serie de pruebas paramétricas actuales, así como sus equivalentes no paramétricos, cuando existen, en esta cuadrícula.
Las pruebas no paramétricas son más robustas que las pruebas paramétricas. En otras palabras, se pueden usar en un mayor número de situaciones.
Las pruebas paramétricas son más poderosas en general que sus equivalentes no paramétricos. En otras palabras, una prueba paramétrica será más capaz de conducir a un rechazo de H0, si este rechazo está justificado. La mayoría de las veces, el valor p calculado por una prueba paramétrica será más bajo que el valor p calculado por un equivalente no paramétrico ejecutado en los mismos datos.
Por ejemplo, si desea comparar un promedio observado con un valor teórico:
¿Quieres comparar el promedio de notas de matemáticas de una clase al promedio del país? En este caso, utilizaremos una prueba paramétrica porque podemos suponer que los datos siguen una distribución normal. Usaremos una prueba t de Student.
Artículos Relacionados: