Esta guía le dirá cuándo debe usar la correlación de orden de rango de Spearman para analizar sus datos, qué supuestos tiene que satisfacer, cómo calcularlo y cómo informarlos. Si desea saber cómo ejecutar una correlación de Spearman en las estadísticas de SPSS, vaya a la Guía de estadísticas de la correlación de nuestro Spearman en SPSS.
La correlación de orden de rango de Spearman es la versión no paramétrica de la correlación de Productment-Moment de Pearson. El coeficiente de correlación de Spearman, (ρ, también significado por RS) mide la fuerza y la dirección de asociación entre dos variables clasificadas.
Necesita dos variables que sean ordinales, intervalo o relación (consulte nuestros tipos de guía variable si necesita aclaración). Aunque normalmente espera usar una correlación de Pearson Product-Moment en los datos de intervalo o relación, la correlación de Spearman se puede usar cuando se violan notablemente los supuestos de la correlación de Pearson. Sin embargo, la correlación de Spearman determina la fuerza y la dirección de la relación monotónica entre sus dos variables en lugar de la fuerza y la dirección de la relación lineal entre sus dos variables, que es lo que determina la correlación de Pearson.
Una relación monotónica es una relación que hace una de las siguientes opciones: (1) a medida que aumenta el valor de una variable, también lo hace el valor de la otra variable; o (2) a medida que aumenta el valor de una variable, el otro valor variable disminuye. En el diagrama se presentan ejemplos de relaciones monotónicas y no monotónicas: a continuación:
La correlación de Spearman mide la fuerza y la dirección de la asociación monotónica entre dos variables. La monotonicidad es «menos restrictiva» que la de una relación lineal. Por ejemplo, la imagen media de arriba muestra una relación que es monotónica, pero no lineal.
¿Cuándo se usa la correlación de Spearman?
La correlación de Spearman en las estadísticas es una alternativa no paramétrica a la correlación de Pearson. Use la correlación de Spearman para los datos que siguen las relaciones curvilíneas y monotónicas y los datos ordinales. Los estadísticos también se refieren al coeficiente de correlación de orden de rango de Spearman como el ρ (Rho) de Spearman.
En esta publicación, cubriré lo que eso significa para que sepa cuándo y por qué debe usar la correlación de Spearman en lugar de la correlación más común de Pearson.
Comencemos por determinar cuándo debe usar la correlación de Pearson, que es la forma más común. Pearson es una excelente opción cuando tienes datos continuos para un par de variables y la relación sigue una línea recta. Si sus datos no cumplen con ambos requisitos, ¡es hora de encontrar una medida de correlación diferente!
Los datos en el gráfico tienen una correlación de 0.8. La correlación de Pearson es válida para estos datos porque la relación sigue una línea recta.
Considere la correlación de orden de rango de Spearman cuando tiene pares de variables continuas y las relaciones entre ellas no siguen una línea recta, o tiene pares de datos ordinales. Examinaré esas dos condiciones a continuación.
El siguiente gráfico muestra por qué la correlación de Pearson para las relaciones curvilíneas no es válida.
En el gráfico, los puntos de datos son la línea roja (¡en realidad muchos y muchos puntos de datos y en realidad no una línea!). Y, la línea verde es el ajuste lineal. Por lo general, no piensa en la correlación de Pearson como modelado de los datos, pero utiliza un ajuste lineal. En consecuencia, la línea verde ilustra cómo la correlación de Pearson modela estos datos. Claramente, el modelo no se ajusta adecuadamente a los datos. Existen las salidas sistemáticas (es decir, no aleatorias) entre los puntos de datos rojos y el ajuste del modelo verde. Justo allí, sabes que la correlación de Pearson no es válida para estos datos.
¿Qué es prueba de hipótesis con el coeficiente de correlación de Spearman?
En esta página web, mostramos cómo usar la correlación de rango de Spearman para las pruebas de hipótesis. En particular, mostramos cómo probar si existe una correlación entre dos variables aleatorias al probar si la población de la población Rho = 0 (la hipótesis nula).
En general, sin embargo, el tau de Kendall es a menudo el enfoque no paramétrico preferido, ya que tiene propiedades estadísticas más deseables.
Ejemplo 1: Repita el análisis, por ejemplo, 1 de la prueba de correlación a través de la prueba t utilizando el Rho de Spearman, es decir, prueba si el Rho de Spearman es significativamente diferente de cero basado en los datos de muestra en el rango B4: C18 de la Figura 1.
RHO de Spearman es el coeficiente de correlación en los datos clasificados, a saber, Correl (D4: D18, E4: E18) = -.674. Alternativamente, se puede calcular utilizando la fórmula de estadísticas reales = Scorrel (D4: D18, E4: E18).
Ahora usamos la tabla en la tabla Rho de Spearman para encontrar el valor crítico de .521 para la prueba de dos colas donde n = 15 y α = .05. Dado que el valor absoluto de Rho es mayor que el valor crítico, rechazamos la hipótesis nula de que no hay correlación.
Desde | t | = 3.29> 2.16 = TCRIT = T.Inv.2t (.05,13), nuevamente concluimos que existe una correlación negativa significativa entre el número de cigarrillos fumados y la longevidad. Los detalles del análisis se muestran en la Figura 2.
Para los usuarios de Excel 2007, reemplace la fórmula en la celda H11 por TINV (H10, H7) y la fórmula en la celda H12 por TDIST (ABS (H9), H7,2).
Observación: para realizar una prueba de una cola, use la tabla en la tabla Rho de Spearman con α multiplicada por 2.
¿Qué significa Spearman?
0. Comenzamos a partir de una muestra de N observaciones (AIO, BIO).
1. Clasifique las observaciones de cada variable ajustándolas para los enlaces.
- Utilizamos una función de Excel que clasifica las observaciones para nosotros y las ajusta automáticamente si encuentra enlaces entre los elementos. Esta función se llama Herarch.media (clasificación AIO; una clasificación; orden).
- El último factor de la función es opcional y nos dice en qué orden queremos ordenar las observaciones. Un número diferente de Scratch ordenará las observaciones en orden de crecimiento. Por ejemplo, un rango de 1. Si colocamos un cero en la variable de pedido asignará el elemento más pequeño, asignará al elemento más grande un rango de 1 (orden decreciente).
- En nuestro caso, asignamos a la variable de pedido un número diferente de Scratch para ordenar las observaciones en orden creciente. Es decir, asignar el elemento más pequeño de la variable un rango de 1.
- Verificamos que las sumas totales de las columnas de clasificación A Y YES Clasificación B sean iguales entre sí y cumplan:
En este caso n = 10 porque tenemos un total de 10 elementos/observaciones en cada variable para sí B.
La suma total de la clasificación A es igual a la suma total de la clasificación y y también satisface la fórmula anterior.
2. Agregue las diferencias entre las clasificaciones y los cuadrados.
- Utilizamos una función de Excel que clasifica las observaciones para nosotros y las ajusta automáticamente si encuentra enlaces entre los elementos. Esta función se llama Herarch.media (clasificación AIO; una clasificación; orden).
- El último factor de la función es opcional y nos dice en qué orden queremos ordenar las observaciones. Un número diferente de Scratch ordenará las observaciones en orden de crecimiento. Por ejemplo, un rango de 1. Si colocamos un cero en la variable de pedido asignará el elemento más pequeño, asignará al elemento más grande un rango de 1 (orden decreciente).
- En nuestro caso, asignamos a la variable de pedido un número diferente de Scratch para ordenar las observaciones en orden creciente. Es decir, asignar el elemento más pequeño de la variable un rango de 1.
- Verificamos que las sumas totales de las columnas de clasificación A Y YES Clasificación B sean iguales entre sí y cumplan:
Definimos (Dios) como una diferencia entre la clasificación de AIO y la clasificación de Bio.
¿Qué es el metodo Spearman?
¿Dónde está la fiabilidad estimada de la prueba después de la adición o eliminación de elementos, es el factor de alargamiento y es la confiabilidad de la prueba antes de agregar o eliminar elementos?
rkk ′ { dongestyle r_ {kk ‘}} k { splatyle k} rxx ′ { dongestyle r_ {xx’}}
Las proporciones indican la cantidad de elementos agregados o restados en proporción al número de elementos contenidos en la prueba original. Por ejemplo, se utilizará un factor de alargamiento para predecir la confiabilidad de una prueba que incluye una serie de elementos tres veces mayores que la prueba original. Los valores entre 0 y 1 corresponden a una situación en la que los elementos se eliminan de la prueba inicial. Por ejemplo, el uso del valor estimará la confiabilidad de una prueba con cuatro veces menos elementos que la prueba original.
K = 3 { displaystyle k = 3} k { displaystyle k} k = 0.25 { displayStyle k = 0.25}
La fórmula de Spearman-Brown a menudo se usa junto con el método de bisección. En el método de bisección, la confiabilidad de una prueba se estima a partir de la correlación entre las puntuaciones totales obtenidas en cada una de las dos mitad de la prueba. Dado que el coeficiente de precisión así obtenido estima en última instancia la precisión de una prueba media, la fórmula de Spearman-Brown puede usarse para estimar la precisión de toda la prueba. En este caso, y la fórmula a veces se presenta en la siguiente forma simplificada:
K = 2 { displayStyle k = 2}
¿Qué es Pearson y Spearman?
El coeficiente de Pearson y el coeficiente de orden de rango de Spearman, cada uno de los aspectos de la relación entre dos variables. Están estrechamente relacionados, pero no lo mismo.
El coeficiente de Spearman mide el orden de rango de los puntos. No le importa exactamente dónde están.
El coeficiente de Pearson mide la relación lineal entre los dos, es decir, qué tan bien una línea recta describe la relación entre ellos.
Cada uno toma un valor de menos uno a más uno. Cuando todas las coordenadas están en línea recta apuntando hacia arriba, ambos números son más uno.
Cualquier línea recta inclinada hacia abajo, en la que cada punto es más bajo que el que a su izquierda, lo hará.
La correlación de Spearman permanece en 1.00, pero el coeficiente de Pearson es menor porque los puntos no están alineados.
Debe encontrar que ambos coeficientes son casi cero.
Una curva en forma de sonrisa es una especie de relación entre dos variables, pero no es una relación lineal ni una relación de orden de rango.
Para una distribución organizada como se indicó anteriormente, ¿hay una relación positiva o negativa entre las dos variables?
Aquí, un coeficiente es positivo y otro negativo.
El coeficiente de Pearson es mucho más sensible a los valores atípicos (mueva los valores atípicos para confirmar esto).
Es por eso que ‘ve’ una relación negativa cuando el coeficiente de Spearman ‘ve’ una relación positiva.
El gráfico en la parte inferior izquierda ha estado trazando ambos coeficientes a medida que mueve los puntos.
¿Qué significa una correlacion de Spearman negativa?
La correlación negativa describe una relación inversa entre dos factores o variables. Por ejemplo, X e Y se correlacionarían negativamente si el precio de X típicamente sube cuando y caiga; Y y sube cuando X cae.
Además de los ejemplos proporcionados anteriormente, un ejemplo a menudo citado de una correlación negativa es entre el dólar estadounidense y el oro. A medida que el dólar estadounidense se deprecia frente a las monedas importantes o debido a la inflación, generalmente se observa que el precio del oro del oro aumenta; Y a medida que el dólar estadounidense aprecia, el oro disminuye el precio. Es por eso que el oro se considera un buen cobertura contra la inflación.
Una correlación positiva sería el tipo opuesto de relación con la correlación negativa. En otras palabras, X e Y se correlacionarían positivamente si ambos se elevan o bajan juntos. Tenga en cuenta que las correlaciones pueden y, a menudo, cambian con el tiempo, y el hecho de que X e Y están positivamente correlacionados ahora no significa que lo sigan siendo así. Pueden correlacionarse negativamente en el futuro.
La fuerza de una relación de correlación se cuantifica por su coeficiente de correlación, lo más fuerte posible está «perfectamente» correlacionada. Una correlación negativa perfecta tiene un valor de -1.0 e indica que cuando X aumenta por las unidades Z, y disminuye exactamente en z; y viceversa. En general, -1.0 a -0.70 sugiere una fuerte correlación negativa, -0.50 una relación negativa moderada y -0.30 una correlación débil. Recuerde que a pesar de que dos variables pueden tener una correlación negativa muy fuerte, esta observación por sí misma no demuestra una relación de causa y efecto entre los dos.
¿Qué pasa si la correlación es negativa?
¿Qué significa la correlación negativa? Significa que la variación de un elemento corresponde al cambio, en la dirección opuesta, del otro elemento tomado en consideración.
La correlación indica la tendencia que tiene dos variables (x e y) para variar juntas, es decir, a covariere. Por ejemplo, se puede suponer que existe una relación entre la insatisfacción de la madre y la agresividad del niño, en el sentido de que, como un aumento en uno, el otro también aumenta.
El coeficiente de correlación R puede tomar valores entre -1 y 1. Los valores positivos indican la existencia de una correlación lineal positiva; Los valores negativos indican una correlación negativa; El valor 0 indica la ausencia de correlación.
Se obtiene como un medio aritmético de los productos de los valores estandarizados de las variables x e y. En el caso de la concordancia, los productos entre los valores ZX y ZY serán positivos («¿positivos x positivos? Y? Negativo x negativo?) ¿Y por lo tanto?> 0.
Por lo tanto, las correlaciones generalmente se escriben recurriendo a dos números fundamentales: r = E p =.
- Cuanto más se acerca a cero, más la correlación lineal es débil.
- Un valor R positivo es una indicación de una correlación positiva, en la que los valores de las dos variables tienden a aumentar en paralelo.
Para medir cuán fuerte es la asociación entre dos variables cuantitativas, puede usar un índice de correlación como el coeficiente de correlación de Pearson, Spearman o Kendall. Todos estos índices varían entre -1 y + 1.
¿Cómo interpretar una correlación negativa?
Una correlación negativa entre dos variables significa que una variable aumenta cada vez que la otra disminuye. Esta relación puede o no representar la causa entre las dos variables, pero describe un modelo existente. La correlación negativa perfecta significa que siempre existe una relación directa con una disminución en una variable siempre encontrada con un aumento correspondiente en el otro. Los estadistas asignan un valor negativo a correlaciones negativas y un valor positivo cada vez que hay una correlación positiva.
Cuando se relacionan dos variables, pueden tener una causa similar o idéntica. El aumento en una variable, en una correlación negativa, puede representar el aumento en un factor que causa directamente la disminución de otro factor. Si, por ejemplo, el número interno de población de ratones y gatos se correlaciona negativamente, entonces el aumento en la población de gatos puede causar directamente la disminución en el número de ratones. Sin embargo, la correlación puede no estar relacionada. La presencia de múltiples gatos no puede reducir el número de ratones directamente si otro factor no relacionado está disminuyendo el número de ratones cubiertos, por ejemplo, trampas de ratones nuevas.
Las correlaciones deben investigarse para determinar una causa. Los planificadores de negocios pueden examinar las relaciones existentes entre variables, como el gasto del consumidor y la demanda de un producto, como parte del análisis de mercado. Sin embargo, las correlaciones no deben interpretarse como una prueba de una variable que causa un cambio en otra variable. Los entornos corporativos complejos a menudo tienen muchas causas complejas y datos relacionados con correlaciones variables sin causa. Por ejemplo, un aumento en el gasto e ingresos del consumidor puede ocurrir simultáneamente con la cobertura positiva de los medios, pero puede tener una causa diferente, como el movimiento en un nuevo mercado emergente.
Artículos Relacionados: