Es muy importante comprender la relación entre las variables para sacar la conclusión correcta de un análisis estadístico. La relación entre variables determina cómo se llegan a las conclusiones correctas. Sin una comprensión de esto, puede caer en muchas dificultades que acompañan el análisis estadístico e infieren los resultados incorrectos de sus datos.
Hay varios tipos diferentes de relaciones entre variables. Antes de sacar una conclusión, primero debe comprender cómo una variable cambia con la otra. Esto significa que debe establecer cómo están relacionadas las variables: ¿la relación es lineal o cuadrática o inversa o logarítmica o algo más?
Suponga que mide un volumen de gas en un cilindro y mida su presión. Ahora comienza a comprimir el gas empujando un pistón mientras mantiene el gas a temperatura ambiente. El volumen de gas disminuye mientras aumenta la presión. Obtienes diferentes valores en un papel de cuadro.
Si toma suficientes medidas, puede ver la forma de una parábola definida por xy = constante. Esto se debe a que los gases siguen la ley de Boyle que dice cuando la temperatura es constante, PV = constante. Aquí, al tomar datos, se relaciona la presión del gas con su volumen. Del mismo modo, muchas relaciones son de naturaleza lineal.
Las relaciones entre las variables deben estudiarse y analizarse antes de sacar conclusiones basadas en ello. En ciencias naturales e ingeniería, esto generalmente es más sencillo, ya que puede mantener todos los parámetros, excepto uno constante y estudiar cómo este parámetro afecta el resultado en estudio.
¿Cuál es la relación entre dos variables?
En este artículo encontrará las pautas a seguir para elegir el método de análisis más adecuado para evaluar la relación estadística entre dos variables del mismo tipo.
Para analizar la relación estadística entre un par de variables, en primer lugar, debe entender en qué escala de medición se expresa. En este artículo veremos los casos en los que las dos variables son del mismo tipo, o cuando desee evaluar la relación entre dos variables: ambas: ambas:
- cualitativo nominal
- ordinal cualitativo
- cuantitativo
Una vez que se ha establecido el tipo de variables, debe decidir si la relación es simétrica o asimétrica. La elección del índice varía de hecho dependiendo del tipo y el rol que suponen las variables.
Se dice que la relación entre dos variables es simétrica cuando no hay distinción entre su papel. En otras palabras, cuando no es posible atribuir a una variable el papel del empleado y el otro de Independent. Cuando la relación es simétrica, por lo tanto, la medida de asociación es la misma independientemente del orden con el que se consideren las dos variables.
La relación entre dos variables se llama asimétrica cuando una variable depende y la otra independiente. Por ejemplo, entre el hábito de fumar y el inicio de una enfermedad. En este caso, el índice de asociación varía según el papel que se atribuye a las dos variables.
¿Cómo se determina el tipo de asociación entre las variables?
La asociación entre dos variables significa que los valores de una variable se relacionan de alguna manera con los valores del otro. Por lo general, se mide por correlación para dos variables continuas y por tabulación cruzada y una prueba de chi-cuadrado para dos variables categóricas.
Desafortunadamente, no hay una medida agradable y descriptiva para la asociación entre una variable categórica y una continua. La correlación de puntos biseriales solo funciona si la variable categórica es binaria. Pero el análisis de varianza o regresión logística unidireccional puede probar una asociación (dependiendo de si piensa en la variable categórica como la variable independiente o dependiente).
Esencialmente, la asociación significa que los valores de una variable generalmente coinciden con ciertos valores del otro.
La interacción es diferente. Si se asocian dos variables no dice nada sobre si interactúan en su efecto en una tercera variable. Del mismo modo, si dos variables interactúan, pueden o no estar asociadas.
Una interacción entre dos variables significa que el efecto de una de esas variables en una tercera variable no es constante: el efecto difiere en diferentes valores del otro.
Los siguientes ejemplos muestran tres situaciones para tres variables: X1, X2 e Y. X1 es una variable independiente continua, X2 es una variable independiente categórica e y es la variable dependiente continua. Elegí este tipo de variables para que las parcelas sean fáciles de leer, pero cualquiera de estas variables podría ser categórica o continua.
¿Qué es el tipo de asociación entre variables?
Cuando se asocian variables, la información sobre el valor de una variable proporciona información sobre el valor de la otra variable. Por ejemplo, la temperatura promedio puede estar asociada con las ventas de helados porque las personas tienden a comprar más helados en los meses de verano, cuando la temperatura es más caliente. Esto no significa necesariamente que la temperatura más alta haga que más personas compren helado, pero sí significa que podemos predecir las ventas de helados con mayor precisión si sabemos cuál es la temperatura afuera.
Las diferencias medias y medias son estadísticas resumidas que pueden usarse para evaluar una asociación entre una variable cuantitativa y una variable categórica. Por ejemplo, si queremos evaluar si existe una asociación entre si alguien recibe o no una droga y su frecuencia cardíaca, podríamos calcular la diferencia en la frecuencia cardíaca media para las personas que tomaron la droga en comparación con la frecuencia cardíaca media para las personas que no tomó la droga. Si encontramos que las personas que tomaron la droga tienen una frecuencia cardíaca promedio que es 10 latidos por minuto más bajo, que proporcionaría evidencia de una asociación.
Los gráficos de caja de lado a lado se pueden usar junto con las diferencias media y mediana para evaluar si se asocian una variable cuantitativa y una variable categórica. Más superposición en los gráficos de la caja indica menos asociación, mientras que menos superposición en los gráficos de la caja indica una asociación más fuerte. Por ejemplo, esta imagen muestra una trama de cuadro de lado a lado de puntajes de matemáticas en dos escuelas diferentes. Los estudiantes parecen estar anotando más alto en una escuela que en la otra, lo que sugiere que existe una asociación entre la escuela que asiste un estudiante y su puntaje matemático.
Los histogramas superpuestos se pueden usar junto con las diferencias medias y medias para evaluar una asociación entre una variable cuantitativa y una variable categórica. Después de normalizar los histogramas, más superposición indica menos asociación y menos superposición indica una asociación más fuerte. La imagen de ejemplo muestra puntajes de matemáticas para estudiantes en dos escuelas diferentes. Vemos que los puntajes tienden a ser más altos para los estudiantes en la escuela GP, pero hay mucha superposición en estas distribuciones, lo que sugiere que la asociación no es muy fuerte.
La covarianza varía desde el infinito negativo hasta el infinito positivo y se usa para medir la resistencia de una asociación lineal entre dos variables cuantitativas. Una gran covarianza negativa indica una asociación lineal negativa fuerte donde los valores grandes de una variable están asociados con valores pequeños del otro. Una gran covarianza positiva indica una fuerte asociación lineal positiva donde los valores grandes de una variable están asociados con grandes valores del otro. Una covarianza de 0 indica que no hay una relación lineal.
¿Cómo medir asociación entre dos variables cualitativas?
Formas comunes de examinar las relaciones entre dos variables categóricas:
- Chi-square prueba una prueba para probar si dos variables categóricas son independientes
Ejemplo: PPD Londres, Asociación entre Old/New y Leasehold/Freehold
PREGUNTA DE INVESTIGACIÓN: ¿Existe una dependencia entre las variables antiguas/nuevas y de arrendamiento/propiedad de propiedades en Londres?
La pregunta se responde con base en las propiedades vendidas en enero de 2019.
Tabla 1 Casas vendidas en Londres en enero de 2019,
dividido por tipo y fiebre fija/correa
Nota. Como se puede ver en esta tabla, la distribución sobre las categorías de propiedad y correa difieren para los diferentes tipos. La pregunta es si la asociación entre las dos variables es significativa.
La fuerza de la relación puede ser medida por la V de Cramer, esta métrica tiene un valor de 0.949 en este caso. Esto significa que existe una relación muy fuerte entre el tipo y la propiedad/correa; Si se sabe que el tipo se sabe, se pueden hacer buenas predicciones para la categoría Freehold/Leasehold.
En este ejemplo, la V de Cramer es igual a 0.08. La relación entre las dos variables es muy débil, aunque es significativa, Chisquare (2) = 15.290, p <.001.
- Chi-square prueba una prueba para probar si dos variables categóricas son independientes
Artículos Relacionados:
- Se utiliza en problemas que involucran dos o mas variables: Guía de uso y ejemplos de aplicación
- El impacto de la relación entre variables en el rendimiento académico
- Cómo determinar qué variables independientes afectan tu sección web
- 3 ejemplos de variables dependientes e independientes en matemáticas
- Relaciones en las que una cantidad depende de otra
