El coeficiente de correlación de orden de rango de Spearman (correlación de Spearman, para abreviar) es una medida no paramétrica de la fuerza y la dirección de asociación que existe entre dos variables medidas en al menos una escala ordinal. Se denota por el símbolo RS (o la letra griega ρ, pronunciada rho). La prueba se utiliza para variables ordinales o para datos continuos que han fallado los supuestos necesarios para realizar la correlación de la momento de producto de Pearson. Por ejemplo, podría usar la correlación de un Spearman para comprender si existe una asociación entre el rendimiento del examen y el tiempo dedicado a revisar; si existe una asociación entre la depresión y la duración del desempleo; Etcétera. Si desea obtener más información sobre esta prueba, que no incluye instrucciones para las estadísticas de SPSS, consulte nuestra Guía estadística más general: correlación de orden de rango de Spearman. Las posibles pruebas alternativas para la correlación de Spearman son Kendall’s Tau-B o Goodman y Kruskal’s Gamma.
Esta guía de «inicio rápido» le muestra cómo llevar a cabo la correlación de un Spearman utilizando estadísticas SPSS. Le mostramos el procedimiento principal para llevar a cabo la correlación de un Spearman en la sección de procedimientos. Primero, le presentamos los supuestos que debe considerar al llevar a cabo la correlación de un Spearman.
Cuando elige analizar sus datos utilizando la correlación de Spearman, parte del proceso implica verificar para asegurarse de que los datos que desea analizar realmente se pueden analizar utilizando la correlación de un Spearman. Debe hacer esto porque solo es apropiado usar la correlación de un Spearman si sus datos «aproban» tres supuestos que se requieren para la correlación de Spearman para darle un resultado válido. En la práctica, la verificación de estos tres supuestos solo agrega un poco más de tiempo a su análisis, lo que requiere que haga clic en algunos botones más en las estadísticas de SPSS al realizar su análisis, así como pensar un poco más sobre sus datos, pero lo es. No es una tarea difícil. Estos tres supuestos son:
- Asunción #1: Sus dos variables deben medirse en una escala ordinal, de intervalos o de relación. Los ejemplos de variables ordinales incluyen escalas Likert (por ejemplo, una escala de 7 puntos desde «totalmente de acuerdo» hasta «totalmente en desacuerdo»), entre otras formas de clasificar categorías (por ejemplo, una escala de 3 put que explica cuánto le gustó a un cliente un producto , que van desde «no mucho», hasta «está bien», a «sí, mucho»). Los ejemplos de variables de intervalo/relación incluyen el tiempo de revisión (medido en horas), inteligencia (medida usando la puntuación IQ), el rendimiento del examen (medido de 0 a 100), peso (medido en kg), etc. Puede obtener más información sobre las variables ordinales, de intervalos y de relación en nuestro artículo: tipos de variables.
- Asunción #2: Sus dos variables representan observaciones emparejadas. Por ejemplo, imagine que estaba interesado en la relación entre el consumo diario de cigarrillos y la cantidad de ejercicio realizado cada semana. Una única observación emparejada refleja la puntuación en cada variable para un solo participante (por ejemplo, el consumo diario de cigarrillos del «Participante 1» y la cantidad de ejercicio realizado cada semana por «Participante 1»). Con 30 participantes en el estudio, esto significa que habría 30 observaciones emparejadas.
- Asunción #3: Existe una relación monotónica entre las dos variables. Existe una relación monotónica cuando las variables aumentan en el valor juntas, o a medida que aumenta un valor variable, el otro valor variable disminuye. Si bien hay varias formas de verificar si existe una relación monotónica entre sus dos variables, sugerimos crear un diagrama de dispersión utilizando estadísticas de SPSS, donde puede trazar una variable contra la otra, e inspeccionar visualmente el plan de dispersión para verificar la monotonicidad. Su diagrama de dispersión puede verse como uno de los siguientes:
- La relación que se muestra en su diagrama de dispersión debe ser monotónico. En nuestras guías mejoradas, le mostramos cómo: (a) crear un diagrama de dispersión para verificar una relación monotónica al llevar a cabo la correlación de Spearman utilizando estadísticas de SPSS; (b) interpretar diferentes resultados de diagrama de dispersión; y (c) considere posibles soluciones si sus datos faltan esta suposición. Solo recuerde que si no prueba estos supuestos correctamente, los resultados que obtiene al ejecutar la correlación de un Spearman podría no ser válido. Es por eso que dedicamos una serie de secciones de nuestra guía de correlación mejorada de Spearman para ayudarlo a obtener esto correcto. Puede averiguar sobre nuestro contenido mejorado en su conjunto en nuestras características: la página de descripción general, o más específicamente, aprende cómo ayudamos a probar los supuestos en nuestras características: la página de supuestos.
Nota: La correlación de Spearman determina el grado en que una relación es monotónica. Dicho de otra manera, determina si hay un componente monotónico de asociación entre dos variables continuas u ordinales. Como tal, la monotonicidad no es en realidad una suposición de la correlación de Spearman. Sin embargo, normalmente no querría seguir la correlación de un Spearman para determinar la fuerza y la dirección de una relación monotónica cuando ya sabe que la relación entre sus dos variables no es monotónica. En cambio, la relación entre sus dos variables podría describirse mejor por otra medida estadística de asociación. Por esta razón, no es raro ver la relación entre sus dos variables en un diagrama de dispersión para ver si ejecutar la correlación de un Spearman es la mejor opción como medida de asociación o si otra medida sería mejor.
¿Cómo se interpreta la correlación de Spearman en SPSS?
Como ya hemos definido, el coeficiente de Spearman puede variar de -1 a +1: cuanto más cerca del índice, más relación entre las dos variables será débil, mientras que cuanto más cerca de -1 o + 1 cuanto más sea la relación Será fuerte.
Como vimos inmediatamente en la apertura del artículo, la correlación de Spearman es un índice no paramétrico, ESI usa cuando las condiciones requeridas por el coeficiente de Pearson R no están presentes. Dado que es una prueba no paramétrica, no es necesario hacer hipótesis en la distribución de las dos variables, una operación que tendrá que ver con el coeficiente de Pearson, ya que es un índice paramétrico.
Una situación en la que es aconsejable utilizar el índice de correlación de Spearman es cuando hay muchos valores atípicos, una condición que puede verificar fácilmente ingresando sus datos en un diagrama de caja.
Los valores atípicos son valores anómalos, que se separan del resto de los datos, que puede decidir enfrentar de dos maneras: excluirlos de su conjunto de datos (no se recomienda la elección si el número de outlys es alto, porque iría al trabajo ) O manténgalos y considerarlos juntos a los demás, sabiendo, sin embargo, que, por supuesto, influirán en sus resultados.
Entonces, ¿por qué, en este caso, la correlación de Spearman es preferible a la de Pearson? Porque es una prueba no paramétrica (como la prueba de Kruskal-Wallis o la prueba de Mann Whitney), que se basa en las filas, y si te encuentras en la situación, prefiere no eliminar los valores anómalos, use este tipo de prueba es aconsejable ya que está mucho menos influenciado por los valores atípicos.
¿Qué indica la correlacion de Spearman?
La correlación de Spearman entre dos variables es igual a la correlación de Pearson entre los valores de rango de esas dos variables; Mientras que la correlación de Pearson evalúa las relaciones lineales, la correlación de Spearman evalúa las relaciones monotónicas (ya sea lineal o no). Si no hay valores de datos repetidos, se produce una correlación perfecta de Spearman de +1 o -1 cuando cada una de las variables es una función monótona perfecta de la otra.
Intuitivamente, la correlación de Spearman entre dos variables será alta cuando las observaciones tienen una correlación similar (o idéntica para una correlación de 1) rango (es decir, etiqueta de posición relativa de las observaciones dentro de la variable: 1 °, 2 °, 3 °, etc.) entre los dos variables y bajas cuando las observaciones tienen un rango diferente (o completamente opuesto para una correlación de −1) entre las dos variables.
Para una muestra de tamaño n, el NRAW scoresXi, yi { displayStyle x_ {i}, y_ {i}} se convierte en rangos r (xi), r (yi) { displaystyle operatorname {r} ({{ X_ {i}}), operatorname {r} ({y_ {i}})}, y rs { displaystyle r_ {s}} se calcula como
Los valores idénticos suelen ser [4] cada uno asignado rangos fraccionales iguales al promedio de sus posiciones en el orden ascendente de los valores, lo que es equivalente a promediar todas las permutaciones posibles.
Si los lazos están presentes en el conjunto de datos, la fórmula simplificada anterior produce resultados incorrectos: solo si en ambas variables todos los rangos son distintos, entonces σr (x) σr (y) = var (r (x)) = var (r (y)) = (n2-1)/12 { displaystyle sigma _ { operatorname {r} (x)} sigma _ { operatorname {r} (y)} = operatorname } {(( operatorname {r} (x))} = operatorname {var} {( operatorname {r} (y))} = (n^{2} -1)/12} (calculado con varianza besgada ).
La primera ecuación, normalización por la desviación estándar, puede usarse incluso cuando los rangos se normalizan a [0, 1] («rangos relativos») porque es insensible tanto a la traducción como a la escala lineal.
¿Cómo sacar el Rho de Spearman en el SPSS?
Este tutorial fácil le mostrará cómo ejecutar la prueba de correlación de Spearman en SPSS y cómo interpretar el resultado.
El coeficiente de correlación de Spearman es el equivalente no paramétrico del coeficiente de correlación de Pearson. Del mismo modo, toma valores entre -1 y +1, pero la diferencia es que cuantifica la medida en que las variables tienden a aumentar o disminuir juntas, es decir, la medida en que una variable tiende a aumentar a medida que la otra aumenta o disminuye. Un valor de cero no indica tal tendencia. (Fuente)
Podemos clasificar el tipo de correlación considerando que una variable aumenta lo que sucede con la otra variable:
- Correlación positiva: la otra variable tiende a aumentar también;
- Correlación negativa: la otra variable tiende a disminuir;
- Sin correlación: la otra variable no tiende a aumentar o disminuir.
El punto de partida de tal análisis debe ser la construcción y el examen posterior de un diagrama de dispersión. Los ejemplos de correlación negativa, no y positiva son los siguientes.
Sí, propusimos las siguientes pautas: un coeficiente de correlación de Spearman entre 0.51 y 0.99 indica una alta correlación entre las variables (los valores superiores a 0.80 indican una correlación extremadamente alta).
Los supuestos para el coeficiente de correlación de Spearman son los siguientes:
Sobre todo, la correlación describe la fuerza y la dirección de una relación entre dos variables. Además, el coeficiente de correlación de rango de Spearman es apropiado para las variables ordinales, y se usa especialmente cuando los datos no cumplen con los criterios para la correlación de Pearson. Como resultado, es una técnica no paramétrica.
¿Cuándo usar la correlación de Spearman?
¿Cómo crear una matriz de correlación en Excel? Haga clic en Datos -> Análisis de datos -> Correlación. Ingrese el intervalo de entrada que contiene el nombre de las empresas y los precios de las acciones. Asegúrese de que se seleccione la opción agrupada por: columnas (porque nuestros datos están organizados en las columnas). ¿Cómo leer una matriz de correlación? Un valor R positivo es una indicación de una correlación positiva, en la que los valores de las dos variables tienden a aumentar en paralelo. Un valor R negativo es una indicación de una correlación negativa, en la que el valor de una variable tiende a aumentar cuando la otra disminuye. 20 de septiembre de 2022
Interpreta el significado del valor absoluto de la covarianza. Si el número es grande, ya sea positivo o negativo, significa que las dos series numéricas están fuertemente relacionadas entre sí en positivo y negativamente. En el ejemplo considerado, la covarianza es igual a -8.07, que es un valor bastante grande. ¿Cómo se calcula el índice Treynor? Cómo calcular el índice Treynor, por ejemplo, suponemos que la ganancia de la cartera es del 30%, la tasa sin riesgo del 2% y la beta de la cartera de 1.4. Por lo tanto, debemos hacer el siguiente cálculo: (0.3 – 0.02) ÷ 1.4 = 0.2, que corresponde al índice Treynor.
La correlación R lineal de Pearson se usa para determinar la resistencia y la dirección de una relación lineal entre dos variables. Se evalúa la relación entre el número de palabras escritas en una historia y la edad de un campeón de estudiantes.
La correlación es perfectamente positiva (indicada por el coeficiente +1) si, cuando un título se mueve, el otro lo sigue en la misma dirección. Un coeficiente de correlación de 0 indica que los títulos de los que estamos hablando no tienen correlación: cualquier analogía direccional son completamente aleatorias. 20 de septiembre de 2017 ¿Cuál es la diferencia entre la beta y la desviación estándar? Si bien la desviación estándar determina la volatilidad de un fondo basado en la disparidad de su rendimiento en un cierto período de tiempo, el coeficiente beta compara la volatilidad (por lo tanto, el riesgo) de un fondo con su índice, de lo contrario dijo el punto de referencia.
Cuanto más se acerca a cero, más la correlación lineal es débil. Un valor R positivo es una indicación de una correlación positiva, en la que los valores de las dos variables tienden a aumentar en paralelo. Los valores 1 y -1 representan las correlaciones «perfectas», una positiva y la otra negativa.
¿Cómo saber si usar Pearson o Spearman?
En este video, aprenderemos a encontrar el coeficiente de correlación de Spearman.
En este video, aprenderemos a encontrar el coeficiente de correlación de Spearman. Ya conoces el concepto de correlación. Sabrá que el coeficiente de correlación de Pearson puede dar una indicación de la existencia, la fuerza y la dirección de una relación lineal entre dos variables cuantitativas, es decir, las variables digitales. Pero el coeficiente de Pearson solo se puede calcular para datos cuantitativos. Si nuestros datos no son digitales, es decir, descriptivo o cualitativo, y tenemos un cierto orden o clasificación, no podemos usar el coeficiente de correlación de Pearson, pero podemos usar el coeficiente de correlación de Spearman.
En este video, veremos cómo calcular el coeficiente de correlación de Spearman utilizando la fórmula y determinar qué tipo de asociación tenemos entre los conjuntos de datos emparejados y cuándo existe esta asociación. Estos son datos bivariados. También podemos calcular el coeficiente de correlación de Spearman para los datos digitales. Y esto es particularmente útil si tenemos, por ejemplo, valores aberrantes en nuestro conjunto de datos.
Recuerde que cuando procesamos datos digitales emparejados en una nube de puntos, estamos buscando una relación entre las dos variables. Si tenemos una relación lineal, podemos usar el coeficiente de correlación de Pearson para determinar la fuerza y la dirección de la relación. Sabemos que si el coeficiente de correlación es cercano a uno, tenemos una fuerte correlación directa o positiva entre las variables. Y si está cerca de menos uno, tenemos una fuerte correlación inversa o negativa. Si es cero, no tenemos correlación. Y si nuestra relación no es lineal, no podemos usar el coeficiente de correlación de Pearson. Y le recordamos que el coeficiente de correlación de Pearson toma valores menos uno por más de uno.
¿Cuándo sería apropiado calcular el coeficiente de correlación de rango de Spearman?
La forma más común de cuantificar la asociación lineal entre dos variables es usar el coeficiente de correlación de Pearson, que siempre adquiere un valor entre -1 y 1 donde:
- -1 indica una correlación lineal perfectamente negativa
- 0 indica que no hay correlación lineal
- 1 indica una correlación lineal perfectamente positiva
Sin embargo, este tipo de coeficiente de correlación funciona mejor cuando la verdadera relación subyacente entre las dos variables es lineal.
Hay otro tipo de coeficiente de correlación conocido como correlación de rango de Spearman que es mejor usar en dos escenarios específicos:
- -1 indica una correlación lineal perfectamente negativa
- 0 indica que no hay correlación lineal
- 1 indica una correlación lineal perfectamente positiva
Escenario 2: cuando uno o más valores atípicos extremos están presentes.
- -1 indica una correlación lineal perfectamente negativa
- 0 indica que no hay correlación lineal
- 1 indica una correlación lineal perfectamente positiva
Los siguientes ejemplos muestran cómo calcular la correlación de rango de Spearman en cada uno de estos escenarios.
Considere el siguiente conjunto de datos (y el gráfico de dispersión correspondiente) que muestra la relación entre dos variables:
Usando el software estadístico, podemos calcular los siguientes coeficientes de correlación para estas dos variables:
- -1 indica una correlación lineal perfectamente negativa
- 0 indica que no hay correlación lineal
- 1 indica una correlación lineal perfectamente positiva
En este escenario, si solo nos preocupamos por los rangos de los valores de los datos (cuando aumenta el rango de X, ¿aumenta el rango de y también?) Entonces la correlación de rango de Spearman nos proporcionaría una mejor idea de la correlación entre las dos variables .
¿Cuándo utilizar Spearman y Pearson?
#Step 1 - Establezca los parámetros de nuestro conjunto de datos y datos # Correlación deseada d.cor <- 0.7 # Media deseada de x D.MX <- 80 # Rango deseado de X D.Rangex <- 20 # Media deseada de Y d.Mi <- 90 # Rango deseado de Y D.Rangey <- 20 ##Paso 2 # Cálculos para crear factores de multiplicación y adición para la media y el rango de x e y MX.Factor <- D.Rangex/6 addx.Factor < - D.MX - (MX.Factor*3) my.factor <- d.rangey/6 addy.factor < - d.my - (my.factor*3) # Generar datos: para este ejemplo, pensemos en esto como 60 estudiantes (filas). Digamos que todos tomaron una prueba al principio #del semestre, y luego nuevamente al final del semestre. Eso nos dará 2 columnas de datos, que son 2 puntajes por estudiante, #con una correlación de Pearson de .80. Tenga en cuenta que puede ajustar los parámetros como desee con el código en los pasos 1 y 2. Por ahora, #Haremos cada puntaje de prueba aproximadamente normalmente distribuido. out <- as.data.frame (mvrnorm (400, mu = c (0,0), Sigma = matriz (c (1, d.cor, d.cor, 1), ncol = 2), empírico = verdadero)) # Ajustar para que los valores sean positivos e incluyan factores que coincidan con los medios y rangos deseados #(no queremos valores negativos en una puntuación de prueba) #y también cámbiele el nombre para probar.1 y prueba. 2 dejaremos "v1" $ "v2" en el conjunto de datos en caso de que nosotros #Want para alterar el rango de los datos y la correlación más adelante. Out $ "test.1" < - (Out $ v1 - min (fuera $ v1))*mx.factor + addx.factor Out $ "test.2" < - (Out $ v2 - min (fuera $ v2))*my.factor + addy.factor ## También puede ser útil dar a cada estudiante un número de identificación en caso de que queramos ver los datos específicos de los estudiantes más adelante. #Para hacer esto, necesitamos crear una variable, n, que siempre se adaptará a la cantidad de sujetos que debe darles un número de asunto #en el caso desea alterar el número de sujetos en su conjunto de datos simulados n <-length (Out $ "test.1") #NOW necesitamos crear una columna de identificación de sujeto Sub.id <-c (1: n) ## y luego póngalo como una nueva columna en nuestro marco de datos utilizando la función "CBind" Class.data <-cbind (id = sub.id, out) #y luego revisa nuestro trabajo Ver (class.data) #También podemos ver nuestros histogramas para asegurarnos de que los datos dentro de nuestras pruebas individuales se distribuyan normalmente Hist (fuera de $ "test.1")
Hist (fuera de $ "test.2")
-Hew podemos mirar nuestros datos en un diagrama de dispersión, y también ajustar una línea de tendencia lineal, para asegurarnos de que se vea correlacionado, y también que la línea de tendencia lineal se vea bien.
¿Cómo se usa Spearman?
Esta vez, la cita histórica es realmente necesaria, el período histórico del nacimiento de la prueba debe enmarcarse. Charles Edward Spearman (1863-1945) desarrolló la prueba, en 1904, para probar estadísticamente si dos conjuntos de datos, digamos dos distribuciones, están relacionadas entre sí. Encuentre la prueba en los libros también como "coeficiente de correlación de orden de rango de Spearman"
La prueba debe usarse para evaluar si existe una relación entre dos series de medidas y medir su armonía.
Hay una pequeña confusión en esta prueba. Ambiguite está en el método de cálculo y en la aplicación a las medidas, así como en la interpretación de los resultados, aquí daremos la interpretación original y, en cualquier caso, también algunos refinamientos web. Algunos autor también lo menciona, por el contrario, como una prueba de independencia entre dos variables. Las referencias: en el enfoque pragmático, corrección de orden de rango, Rho de Spearman.
Esta prueba se puede usar con al menos variables ordinales, pero también para distribuciones bastante diferentes de los conjuntos gaussianos y para mediciones con muchas diferentes.
Correlación de Spearman¡No te confundas! La correlación de Spearman se define como una relación monotónica donde Y crece o describe continuamente de acuerdo con X. Esta correlación se puede analizar reemplazando los valores individuales de x e y su posición en el conjunto de observaciones. Parece la prueba pero es otra cosa
Dos variables miden n. objetos¿Cómo interpretar los resultados de Spearman?
Una maestra recopiló datos para el rango de puntajes de matemáticas y el rango de puntajes de ciencias para 30 estudiantes en su clase. Encontró que la correlación de rango de Spearman entre las dos variables es 0.48 con un valor p correspondiente de 0.043.
Aquí le mostramos cómo informar la correlación de rango de Spearman en formato APA:
La correlación de rango de Spearman se calculó para evaluar la relación entre los puntajes de las matemáticas y los puntajes de ciencias.
Hubo una correlación positiva entre las dos variables, r (28) = .48, p = .043.
Un científico deportivo recopiló datos para el rango de puntos anotados frente a rebotes recopilados por 50 jugadores de baloncesto profesionales. Encontró que la correlación de rango de Spearman entre las dos variables es -0.27 con un valor p correspondiente de 0.026.
La correlación de rango de Spearman se calculó para evaluar la relación entre los puntos anotados y los rebotes recolectados.
Hubo una correlación negativa entre las dos variables, r (48) = -.27, p = .026.
Una empresa recopiló datos durante las horas totales trabajadas frente a la productividad general de 25 empleados. Encontraron que la correlación de rango de Spearman entre las dos variables es 0.57 con un valor p correspondiente de 0.039.
La correlación de rango de Spearman se calculó para evaluar la relación entre las horas trabajadas y la productividad general.
Hubo una correlación positiva entre las dos variables, r (23) = .57, p = .039.
¿Qué son las Correlaciones en SPSS?
La correlación es una técnica estadística que muestra cuán fuertemente dos variables están relacionadas entre sí o el grado de asociación entre los dos. Por ejemplo, si tenemos los datos de peso y altura de personas más altas y más cortas, con la correlación entre ellos, podemos descubrir cómo están relacionadas estas dos variables. También podemos encontrar la correlación entre estas dos variables y decir que sus pesos están positivamente relacionados con la altura. La correlación se mide por el coeficiente de correlación. Es muy fácil calcular el coeficiente de correlación en SPSS. Antes de calcular la correlación en SPSS, debemos tener algunos conocimientos básicos sobre la correlación. El coeficiente de correlación siempre debe estar en el rango de -1 a 1. Hay tres tipos de correlación:
Alinear el marco teórico, la recopilación de artículos, sintetizar brechas, articular una metodología y plan de datos claros, y escribir sobre las implicaciones teóricas y prácticas de su investigación son parte de nuestros servicios integrales de edición de tesis.
- Rastree todos los cambios, luego trabaje con usted para lograr una escritura académica.
- Apoyo continuo para abordar los comentarios del comité, reduciendo las revisiones.
1. Correlación positiva y negativa: cuando una variable se mueve en la misma dirección, entonces se llama correlación positiva. Cuando una variable se mueve en una dirección positiva, y una segunda variable se mueve en una dirección negativa, se dice que es una correlación negativa.
¿Qué indican las correlaciones?
A menudo, cuando comenzamos a analizar nuevos datos, una de las primeras cosas que observamos es si ciertos pares de variables están correlacionados. La correlación puede decir si dos variables tienen una relación lineal y la fuerza de esa relación. Esto tiene sentido como punto de partida, ya que generalmente buscamos relaciones y la correlación es una manera fácil de manejar rápidamente el conjunto de datos con el que estamos trabajando.
¿Cómo definimos la correlación? Podemos pensar en ello en términos de una pregunta simple: cuando X aumenta, ¿qué tiende a hacer? En general, si Y tiende a aumentar junto con X, hay una relación positiva. Si Y disminuye a medida que X aumenta, esa es una relación negativa.
La correlación se define numéricamente por un coeficiente de correlación. Este es un valor que toma un rango de -1 a 1. Un coeficiente de -1 es una correlación lineal negativa perfecta: una línea recta tendencia hacia abajo. Un coeficiente +1 es, por el contrario, la correlación lineal positiva perfecta. Una correlación de 0 no es una correlación lineal en absoluto.
Hacer un diagrama de dispersión en Minitab puede brindarle una visualización rápida de la correlación entre las variables, y puede obtener el coeficiente de correlación yendo a STAT> Estadísticas básicas> Correlación... Aquí hay algunos ejemplos de conjuntos de datos que un coeficiente de correlación puede evaluar con precisión .
Este gráfico muestra una correlación positiva de 0.7; Cerca de 1. Como puede ver en el diagrama de dispersión, es una relación lineal bastante fuerte. Como los valores de X tienden a aumentar, Y tiende a aumentar también. A continuación se muestra una trama similar, pero aquí la relación muestra una dirección negativa.
¿Cómo saber si hay correlación entre dos variables en SPSS?
Tengo varios grupos de casos, y dentro de cada grupo he calculado una correlación entre dos variables. Quiero ver si hay diferencias entre los grupos en las correlaciones. ¿Puede SPSS hacer esto?
Un enfoque de este problema es estandarizar las variables que está correlacionando entre sí, y luego usar la metodología para probar la igualdad o la homogeneidad de las pendientes de regresión a través del análisis de covarianza (ANCOVA) en estas variables estandarizadas, ya que las pendientes de regresión para los estandarizados Las variables serán las correlaciones. Si las variables son x e y, y tiene una variable de agrupación llamada grupo que define los diferentes grupos de casos, puede lograr esto de la siguiente manera:
1) Ejecutar descriptivos (analizar-> estadísticas descriptivas-> descriptivos en los menús) en x e y, guardando las puntuaciones estandarizadas (z). Si hay casos con datos faltantes, use la eliminación de listones para el manejo de los casos faltantes para que las puntuaciones Z se basen en los mismos casos que se utilizarán en la ANCOVA.
2) Ejecute unianova (analizar-> modelo lineal general-> univariado en los menús), especificando a Zy como dependiente, el grupo como un factor fijo y ZX como covairado (en realidad no importa cuál es el dependiente y cuál es la covariable). Especifique un DEISGN con grupo, ZX y grupo*ZX en el modelo. La prueba para el término de interacción del grupo*ZX prueba la hipótesis nula de correlaciones iguales entre los grupos.
Otro enfoque, que muchos prefieren, es usar correlaciones transformadas directamente en las pruebas, utilizando fórmulas de R. A. Fisher. Consulte Technote 1480038 para los comandos utilizando este enfoque
Artículos Relacionados:
