¿Cómo se relacionan las variables?

Una correlación es una medida estadística de la relación entre dos variables. La medida se usa mejor en variables que demuestran una relación lineal entre sí. El ajuste de los datos se puede representar visualmente en un diagrama de dispersión. Usando un diagrama de dispersión, generalmente podemos evaluar la relación entre las variables y determinar si están correlacionadas o no.

El coeficiente de correlación es un valor que indica la fuerza de la relación entre variables. El coeficiente puede tomar cualquier valor de -1 a 1. Las interpretaciones de los valores son:

  • -1: correlación negativa perfecta. Las variables tienden a moverse en direcciones opuestas (es decir, cuando una variable aumenta, la otra variable disminuye).
  • 0: Sin correlación. Las variables no tienen una relación entre sí.
  • 1: Correlación positiva perfecta. Las variables tienden a moverse en la misma dirección (es decir, cuando una variable aumenta, la otra variable también aumenta).

Una de las principales aplicaciones del concepto en finanzas es la gestión de la cartera. Una comprensión profunda de este concepto estadístico es esencial para la optimización exitosa de la cartera.

La correlación no debe confundirse con la causalidad. La famosa expresión «La correlación no significa causalidad» es crucial para la comprensión de los dos conceptos estadísticos.

Si se correlacionan dos variables, no implica que una variable cause los cambios en otra variable. La correlación solo evalúa las relaciones entre las variables, y puede haber diferentes factores que conducen a las relaciones. La causalidad puede ser una razón para la correlación, pero no es la única explicación posible.

¿Qué es una correlación de variables?

El análisis de correlación es un método estadístico bivarial para medir la fuerza de la relación lineal entre dos variables y calcular su relación. En pocas palabras, el análisis de la correlación calcula la cantidad de cambio en una variable mientras que la otra cambia. Una alta correlación indica una fuerte relación entre las variables, mientras que una baja correlación significa que las variables dependen débilmente entre sí. Con la ayuda del análisis de correlación, es posible determinar las relaciones, modelos, conexiones significativas y tendencias entre dos variables o conjuntos de datos.

El coeficiente de correlación es el valor numérico que indica el tipo de correlación, es decir, la relación estadística entre dos variables. El valor del coeficiente de correlación (RS) varía entre + 1 y – 1 en términos de fuerza de la relación entre las variables. Cuanto más se acerca el valor del coeficiente de correlación 0, más débil es la relación entre las dos variables. La dirección del informe se indica mediante el signo del coeficiente de correlación; Un signo + indica una relación directa y un signo, indica una relación inversa.

La correlación entre dos variables puede ser una correlación positiva, una correlación negativa o sin correlación. Echemos un vistazo a los ejemplos de cada uno de estos tres tipos:

  • Correlación positiva: una correlación positiva entre dos variables significa que ambas variables se mueven en la misma dirección. Un aumento en una variable conduce a un aumento en la otra variable y viceversa. Por ejemplo, si pasa más tiempo en una cinta de correr, quema más calorías.
  • Correlación negativa: una correlación negativa entre dos variables significa que las variables se mueven en direcciones opuestas. Un aumento en una variable conduce a una disminución en la otra variable y viceversa. Por ejemplo, al aumentar la velocidad de un vehículo, el tiempo necesario para llegar a su destino disminuirá.
  • Correlación débil / cero: no hay correlación si una variable no tiene influencia en la otra. Por ejemplo, no hay correlación entre el número de años de asistencia escolar de una persona y el número de cartas de su nombre.

Con la ayuda del análisis de correlación, es relativamente fácil determinar la dependencia de dos variables entre sí. Con las herramientas de análisis QuestionPro, puede realizar un análisis de correlación sin conocer la fórmula o evaluar los datos manualmente, por ejemplo, en Excel.

¿Qué es correlación de las variables?

La causalidad es una correlación en la que una variable depende de la otra y esta relación persiste en el tiempo.

Si observamos durante un largo período de que cuanto más se trabaja la cantidad, más aumenta el salario (ya que se paga cada hora adicional), entonces hay un vínculo causal entre la cantidad de horas trabajadas y el salario.

Si dos variables varían en la misma dirección o en la dirección opuesta, sin que haya ningún vínculo entre los dos, se dice que hay correlación sin causalidad.

Una vez que se ha establecido el enlace causal entre dos variables, se debe definir el significado de causalidad, es decir, si:

  • El enlace lógico es de variable a variable B o variable B a variable A.
  • Defina cuál es la variable explicada y cuál es la variable explicativa.

En el enlace causal entre el número de horas trabajadas y el salario de un trabajador, el enlace lógico es:

  • El enlace lógico es de variable a variable B o variable B a variable A.
  • Defina cuál es la variable explicada y cuál es la variable explicativa.
  • La cantidad de horas trabajadas para el salario: es porque el trabajador trabajó durante más horas que gana más.
  • Por lo tanto, la variable explicativa es el número de horas trabajadas y la variable explicada es el salario.
  • Se puede contactar a nuestros expertos experimentados por teléfono y correo electrónico para responder todas sus preguntas. Para comprender nuestros servicios, encontrar el soporte adecuado o simplemente suscribirse a una oferta, no dude en solicitarlos.

    ¿Cómo se hace una correlación de variables?

    Comprender la causalidad no es fácil. En el mundo real, nunca tiene acceso a todos los datos que necesita para mapear cada posible relación entre variables. Pero hay algunas estrategias clave que nos permiten aislar y explorar los mecanismos entre diferentes variables. Por ejemplo, en un experimento controlado, podemos tratar de asociar dos grupos con precaución y aplicar aleatoriamente un tratamiento o una intervención a solo uno de los grupos.

    El principio de la aleatorización es esencial para el plan de experiencia, y comprender este contexto puede modificar lo que podemos deducir las pruebas estadísticas.

    Tomemos el primer ejemplo anterior que examinó la relación entre la actividad física y el cáncer de piel. Imagine que de alguna manera podemos tomar una gran muestra de personas a nivel internacional y distribuirlas al azar en diferentes niveles de actividad física cada semana durante diez años. Después de este período, también reunimos los niveles de cáncer de piel de este gran grupo. ¡Obtenemos un conjunto de datos diseñados experimentalmente para probar la relación entre la actividad física y el cáncer de piel! Debido a que la actividad física se ha manipulado directamente en la experimentación mediante una distribución aleatoria, no se vinculará sistemáticamente con otras variables que podrían divergir entre estos dos grupos (suponiendo que todos los demás aspectos del estudio son válidos). Esto significa que en este caso, como nuestros datos provienen de un plan de experiencia válido, una correlación positiva entre la actividad física y el cáncer de piel constituiría evidencia significativa de causal.

    ¿Cómo interpretar la correlación entre dos variables?

    Imagine que está leyendo el periódico y ves un artículo que dice que se realizó un estudio sobre si leer libros sobre vampiros hace que los niños quieran convertirse en vampiros mismos. El artículo dice que existe una correlación entre leer los libros de vampiros y el deseo de ser un vampiro, y que la correlación es -1.5. El periodista concluye que los libros de vampiros deben estar prohibidos, ¡porque están haciendo que los niños se conviertan en vampiros! ¿Qué opinas de la conclusión de este reportero? Si comprende la teoría y las estadísticas detrás de los estudios correlacionales, sabrá que este reportero debe volver a la escuela para aprender cómo funcionan realmente las correlaciones. Ese es el tema de esta lección.

    Intente actualizar la página o comuníquese con el servicio de atención al cliente.

    Como miembro, también obtendrá acceso ilimitado a más de 84,000
    Lecciones en matemáticas, inglés, ciencia, historia y más. Además, obtenga pruebas de práctica, cuestionarios y entrenamiento personalizado para ayudarlo
    triunfar.

    Una correlación es una estadística simple que explica si existe una relación o asociación entre dos variables. Las correlaciones son probablemente la estadística más común utilizada en el campo de la psicología, por lo que es importante comprender cómo funcionan.

    Comencemos con cómo podríamos hacer un estudio correlacional básico antes de llegar al significado detrás de los números reales de las estadísticas. En un estudio correlacional, los investigadores eligen dos variables que creen que podrían estar asociadas entre sí. Para esta lección, pensemos en un estudiante que quiere ir de la escuela secundaria a la universidad. La oficina de admisiones en cada universidad querrá saber cómo fueron las calificaciones de la escuela secundaria de ese estudiante, porque creen que las calificaciones de la escuela secundaria pueden predecir las calificaciones universitarias. En otras palabras, creen que las calificaciones de la escuela secundaria están asociadas con las calificaciones universitarias. ¿Por qué llegarían a esta conclusión? Podrían hacer un gráfico que muestra a todos los estudiantes que han aceptado en el pasado, y este gráfico podría mostrar ambas variables.

    ¿Cómo hacer una correlación de variables?

    En la tabla anterior se muestran coeficientes de correlaciones entre los posibles pares de variables.

    Tenga en cuenta que, si sus datos contienen valores faltantes, use el siguiente código R para manejar los valores faltantes por la eliminación de caso.

    cor (my_data, use = "completa.obs")

    Desafortunadamente, la función cor () devuelve solo los coeficientes de correlación entre las variables. En la siguiente sección, utilizaremos el paquete HMISC R para calcular los valores p de correlación.

    La función rcorr () [en el paquete HMISC] se puede usar para calcular los niveles de significancia para las correlaciones de Pearson y Spearman. Devuelve tanto los coeficientes de correlación como el valor p de la correlación para todos los pares posibles de columnas en la tabla de datos.

    rcorr (x, type = c ("Pearson", "Spearman"))

    X debería ser una matriz. El tipo de correlación puede ser Pearson o Spearman.

    La salida de la función rcorr () es una lista que contiene los siguientes elementos:
    – R: La matriz de correlación
    – n: la matriz del número de observaciones utilizadas para analizar cada par de variables
    – P: los valores p correspondientes a los niveles de significancia de correlaciones.

    Si desea extraer los valores p o los coeficientes de correlación de la salida, use esto:

    Las correlaciones positivas se muestran en correlaciones azules y negativas en el color rojo. La intensidad del color y el tamaño del círculo son proporcionales a los coeficientes de correlación. En el lado derecho del correlograma, el color de la leyenda muestra los coeficientes de correlación y los colores correspondientes.

    ¿Cómo hacer un estudio de correlación?

    Una vez que haya calculado una correlación, puede determinar la probabilidad de que la correlación observada ocurriera por casualidad. Es decir, puede realizar una prueba de significado. La mayoría de las veces está interesado en determinar la probabilidad de que la correlación sea real y no una casualidad. En este caso, está probando las hipótesis mutuamente excluyentes:

    La forma más fácil de probar esta hipótesis es encontrar un libro de estadísticas que tenga una tabla de valores críticos de r. La mayoría de los textos de estadísticas introductorias tendrían una tabla como esta. Como en todas las pruebas de hipótesis, primero debe determinar el nivel de significancia. Aquí, usaré el nivel de significancia común de alfa = .05. Esto significa que estoy realizando una prueba en la que las probabilidades de que la correlación sea una posibilidad de que ocurra no sea más de 5 de cada 100. Antes de buscar el valor crítico en una tabla, también tengo que calcular los grados de libertad o DF. El DF es simplemente igual a N-2 o, en este ejemplo, es 20-2 = 18. Finalmente, tengo que decidir si estoy haciendo una prueba de una cola o de dos colas. En este ejemplo, dado que no tengo una teoría previa fuerte para sugerir si la relación entre la altura y la autoestima sería positiva o negativa, optaré por la prueba de dos colas. Con estas tres piezas de información, el nivel de significancia (alfa = .05)), grados de libertad (df = 18) y tipo de prueba (dos colas), ahora puedo probar la importancia de la correlación que encontré. Cuando busco este valor en la pequeña y práctica mesa en la parte posterior de mi libro de estadísticas, encuentro que el valor crítico es .4438. Esto significa que si mi correlación es mayor que .4438 o menos que -.4438 (recuerde, esta es una prueba de dos colas), puedo concluir que las probabilidades son inferiores a 5 de cada 100 que esta es una ocurrencia de posibilidades. Dado que mi correlación de .73 es en realidad bastante mayor, concluyo que no es una posibilidad de casos y que la correlación es «estadísticamente significativa» (dados los parámetros de la prueba). Puedo rechazar la hipótesis nula y aceptar la alternativa.

    Todo lo que te he mostrado hasta ahora es cómo calcular una correlación entre dos variables. En la mayoría de los estudios tenemos considerablemente más de dos variables. Supongamos que tenemos un estudio con 10 variables de nivel de intervalo y queremos estimar las relaciones entre todas ellas (es decir, entre todos los pares posibles de variables). En este caso, tenemos 45 correlaciones únicas para estimar (¡más tarde, cómo lo sabía!). Podríamos hacer los cálculos anteriores 45 veces para obtener las correlaciones. O podríamos usar casi cualquier programa de estadísticas para calcular automáticamente los 45 con un simple clic del mouse.

    ¿Qué tipo de correlación tienen las variables?

    Cuando las variables que componen la doble variable (x, y) son numéricas, es posible analizar un vínculo estadístico particular entre los caracteres, la correlación lineal.

    Estudiar la correlación lineal significa investigar la existencia de un vínculo para que los cambios en un carácter correspondan a cambios en el otro carácter de acuerdo con una relación lineal.

    Una primera forma de verificar la existencia de una correlación lineal entre dos caracteres cuantitativos x e y es representar una doble distribución (x, y) a través de un gráfico de dispersión (o diagrama de dispersión).

    Un diagrama de dispersión es un gráfico en el que cualquier observación de la doble variable (xl, yl) se representa como un punto en los ejes cartesianos en los que:

    • Los valores de las variables X variables están asociados con el eje abscisa
    • Los valores de la variable Y están asociados con el orden de las órdenes

    La evaluación de la forma de la nube de los puntos formados por los comentarios de la doble distribución permite evaluar la existencia de una relación lineal:

    • Los valores de las variables X variables están asociados con el eje abscisa
    • Los valores de la variable Y están asociados con el orden de las órdenes
  • Una nube redondeada sin una pendiente definida implica la ausencia de una correlación lineal significativa entre X e Y
  • En cambio, una nube alargada (en su cigarro «) implica la existencia de una correlación lineal positiva o negativa dependiendo de la inclinación de la forma supuesta.
  • Dado que, en realidad, X e Y presumiblemente tendrán una posición diferente y una variabilidad diferente, para una evaluación gráfica y analítica de la relación, es mejor referirse a variables estandarizadas.

    ¿Cómo saber el tipo de correlación?

    La prueba de correlación se utiliza para evaluar una asociación (dependencia) entre dos variables. El cálculo del coeficiente de correlación se puede llevar a cabo utilizando diferentes métodos. Existe la correlación de Pearson, la correlación de Kendall y el coeficiente de correlación de Spearman. Estos métodos de cálculo de correlación se describen en las siguientes secciones.

    R Cor () de R se puede usar para calcular la correlación coeficiente entre dos variables, X e Y. Un formato simplificado de la función es:

    # X e Y son vectores numéricos
    Cor (x, y, método = c ("Pearson", "Kendall", "Spearman"))))

    – El método de correlación de Pearson calcula un coeficiente de correlación llamado paramétrico. – Los métodos de prueba de correlación de Kendall y Spearman no son paramétricos. Estas son pruebas de correlación basadas en la fila.

    X e Y son vectores numéricos y deben tener el mismo tamaño.

    Cor (x, y, método = "Pearson")
    [1] 0.5712

    El método de correlación puede ser del tipo Pearson, Spearman o Kendall

    El coeficiente de correlación de Pearson mide una correlación lineal entre dos variables.

    En el caso en que el método utilizado es del tipo «Kendall» o «Spearman», las estadísticas TAU de Kendall y Rho de Spearman se utilizan respectivamente para estimar el coeficiente de correlación basado en el rango. Estas son tan sólidas pruebas estadísticas sólidas porque no dependen de la distribución de datos. La prueba de correlación de Kendall y la de Spearman se recomienda cuando las variables no siguen una ley normal.

    Artículos Relacionados:

    Más posts relacionados:

    Deja una respuesta

    Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *