Los coeficientes de correlación miden la resistencia de
asociación entre dos variables. La correlación más común
coeficiente, llamado el
Coeficiente de correlación de productos de productos de Pearson,
mide la fuerza del
asociación lineal entre variables medidas en un
intervalo o
escala de proporción.
Nota: Su navegador no admite el video HTML5. Si ve esta página web en un navegador diferente
(por ejemplo, una versión reciente de Edge, Chrome, Firefox u Opera), puede ver un tratamiento de video de esta lección.
En este tutorial, cuando hablamos simplemente de una correlación
coeficiente, nos referimos al momento de productos de Pearson
correlación. En general, el coeficiente de correlación de un
muestra
se denota por
r, y el coeficiente de correlación de un
población
se denota por
ρ o R.
El letrero y el
valor absoluto
de un coeficiente de correlación
Describe la dirección y la magnitud de la relación
entre dos variables.
- El valor de un coeficiente de correlación varía entre -1 y
1. - Cuanto mayor sea el valor absoluto del coeficiente de correlación de productos de productos de Pearson,
Cuanto más fuerte es la relación lineal. - La relación lineal más fuerte se indica mediante una correlación
coeficiente de -1 o 1. - La relación lineal más débil se indica mediante una correlación
coeficiente igual a 0. - Una correlación positiva significa que si una variable se hace más grande,
La otra variable tiende a crecer. - Una correlación negativa significa que si una variable se hace más grande,
La otra variable tiende a hacerse más pequeña.
Tenga en cuenta que el coeficiente de correlación de productos de productos de productos de Pearson
Solo medidas
relaciones lineales. Por lo tanto, una correlación de 0 no
relación media cero entre dos variables; Más bien, significa
Relación lineal cero. (Es posible para dos
variables para tener cero relación lineal y una fuerte
relación curvilínea al mismo tiempo).
¿Cuáles son los tipos de correlación en estadística?
En probabilidades y estadísticas, estudiar la correlación entre dos o más variables aleatorias o estadísticas estadísticas digitales es estudiar la intensidad del enlace que puede existir entre estas variables. La conexión solicitada es una relación afina (en matemáticas, Affine puede corresponder a :). En el caso de dos variables digitales, esta es una regresión lineal (en estadísticas, dada una muestra aleatoria un modelo de…).
Se obtiene una medida de esta correlación mediante el cálculo del coeficiente de correlación lineal. Este coeficiente es igual al informe de su covarianza (en estadísticas, la covarianza es un número que permite evaluar la dirección de variación de dos…) y el producto no cero de sus desviaciones estándar. El coeficiente de correlación es entre -1 y 1.
Calcule el coeficiente de correlación entre 2 variables digitales equivale a buscar resumir el enlace que existe entre las variables utilizando una línea. Luego hablamos de un ajuste lineal.
¿Cómo calcular las características de este derecho? Asegurar que el error que cometamos al representar el enlace entre nuestras variables por un derecho es lo más pequeño posible. El criterio formal con mayor frecuencia utilizado, pero no el único posible, es minimizar la suma de todos los errores realmente cometidos en el cuadrado (un cuadrado es un polígono regular en cuatro lados. Esto significa que es…). Luego hablamos de ajuste de acuerdo con el método de mínimo cuadrado (el método de mínimo cuadrado, desarrollado independientemente por Legendre en…) ordinario. La derecha resultante de este ajuste se llama línea de regresión. Cuanto más es buena la calidad general de la representación del vínculo entre nuestras variables por este derecho, más también es el coeficiente de correlación lineal asociado. Existe una equivalencia formal entre los dos conceptos.
¿Qué correlaciones existen?
La correlación es una de las estadísticas más comunes y más útiles. Una correlación es un número único que describe el grado de relación entre dos activos. Se puede utilizar para acciones o actividades individuales, o puede medir cómo los mercados más amplios se mueven entre sí. Se mide en una escala de -1 a +1. Una correlación positiva perfecta entre dos activos tiene una lectura de +1. Una correlación negativa perfecta tiene una lectura de -1. Sin embargo, tales casos son extremadamente raros. Echemos un vistazo a un ejemplo gráfico.
Como puede ver, hay una correlación evidente entre el dólar canadiense y el aceite. Se define como una correlación positiva, porque ambos mercados se mueven en conjunto: en otras palabras, un mercado aumenta mientras que el otro mercado aumenta y disminuye mientras que el otro disminuye. Por supuesto, es una regla general y una desviación de ella a veces puede aparecer.
El dólar australiano es una moneda de las materias primas, lo que significa que su fortaleza depende principalmente de los precios de las materias primas específicas. Australia es el mayor productor de minerales de hierro en el mundo y, por lo tanto, no debería sorprender que la riqueza de la economía y el valor de su moneda dependan en gran medida de las perspectivas de mineral de hierro. Por lo tanto, las perspectivas de este producto podrían considerarse como un proxy de las perspectivas frente al dólar australiano.
Por ejemplo, si aumenta el precio del mineral de hierro, los inversores generalmente tienen que comprar más dólares australianos para comprar la misma cantidad de mineral de hierro en Australia. Esto aumenta la demanda agregada de la moneda que fortalece a AUD.
¿Qué función tiene las medidas de correlación?
En la mecánica estadística, la función de correlación es una medida del orden en un sistema, caracterizado por una función de correlación matemática. Las funciones de correlación describen cómo están relacionadas las variables microscópicas, como el giro y la densidad, en diferentes posiciones. Más específicamente, las funciones de correlación cuantifican, como las variables microscópicas co-variadas en promedio en promedio en espacio y tiempo. Un ejemplo clásico de estas correlaciones espaciales se encuentra en los modelos de materiales ferromagnéticos y antiferomagnéticos, donde los giros prefieren alinearse respectivamente de manera paralela o antiparallela con sus vecinos más cercanos. La correlación espacial entre los giros en estos materiales se muestra en la figura a la derecha.
La definición más común de una función de correlación es el conjunto promedio en comparación con el conjunto canónico (térmico) del producto escalar de dos variables aleatorias, s1 { displaystyle s_ {1}} y s2 { displaysstyle s_ {2}, en posiciones r r. { Dysplayle r} y r+r { displayle r+r} y en los tiempos t { displaystyle t} y t+τ { displaystyle t+ tau}::
Donde el paréntesis ⟨…⟩ { Donysstyle Langle… rangle} indica el promedio térmico mencionado anteriormente. Es una cuestión de la convención restar el producto promedio no relacionado de S1 { Splatyle S_ {1}} y S2 { DisplayStyle S_ {2}}, ⟨S1 (R, T) ⟩⟨S2 (R+R, T+ τ)⟩ { Donys langle mathbf {s_ {1}} (r, t) rangle langle mathbf {s_ {2}} (r+r, t+ tau) rangle} con el producto relacionado, ⟨S1 (r, t) ⋅S2 (r+r, t+τ)⟩ { splatyle langle mathbf {s_ {1}} (r, t) cdot mathbf {s_ {2} (r+r , t+ tau) rangle}, con diferentes convenciones en diferentes áreas. Los usos más comunes de las funciones de correlación son cuando S1 { splatyle s_ {1}} y s2 { displaysstyle s_ {2}} describen la misma variable, como el caso de la función de la correlación de espina de giro, o la función de la correlación del conjunto de posición de las partículas en un líquido elemental o en un sólido (a menudo llamado función de distribución radial o función de correlación de pareja). Las funciones de correlación entre dos valores de la misma variable aleatoria son las funciones autogorzadoras. Sin embargo, en la mecánica estadística, no todas las funciones de correlación son funciones autogorde. Por ejemplo, en las fases condensadas de componente múltiple, la función de correlación de pareja entre diferentes elementos a menudo asume importancia. Estas funciones de correlación de parejas de elementos mixtos son un ejemplo de funciones de correlación cruzada, donde las variables aleatorias s1 { splatyle s_ {1}} y s2 { displaystyle s_ {2}} representan las variaciones promedio de densidad de acuerdo con las posición para dos elementos distintos.
A menudo está interesado en la influencia espacial de una fecha variable aleatoria, por ejemplo, la dirección de una rotación, en comparación con su entorno local, sin considerar los tiempos τ { displaystyle tau} posteriores. En este caso, se descuida la evolución temporal del sistema, por lo que la definición mencionada se reescribe con τ = 0 { displayStyle tau = 0}. Esto se define como la misma función de correlación de tiempo, c (r, 0) { displaystyle c (r, 0)}:
A menudo se omite el tiempo de referencia, t { splatyle t}, y el radio de referencia, r { splatyle r}, asumiendo el equilibrio (y por lo tanto la invariancia temporal del sistema) y mediando en todas las posiciones de la muestra, consiguiendo:
Donde, nuevamente, la elección de restar las variables no relacionadas depende del área. La función de distribución radial es un ejemplo de una función de correlación de tiempo igual en la que el valor no relacionado generalmente no se resta.
¿Cómo funciona la matriz de correlación?
La matriz de correlación es una matriz que muestra la correlación entre variables. Da la correlación entre todos los posibles pares de valores en un formato de matriz.
Podemos usar una matriz de correlación para resumir un gran conjunto de datos e identificar los patrones y tomar una decisión de acuerdo con ella. También podemos ver qué variable está más correlacionada por qué variable y podemos visualizar nuestros resultados.
Una matriz de correlación es una tabla de filas y columnas que muestra las variables. Cada célula en una matriz contiene el coeficiente de correlación. La matriz de correlación está en conjunto con otros tipos de análisis estadístico.
Es muy útil en técnicas de regresión como regresión lineal simple, regresión lineal múltiple y modelos de regresión de lazo. En la técnica de regresión, tenemos varias variables independientes, y en base a que estamos prediciendo la variable dependiente.
En la regresión lineal múltiple, la matriz de correlación determina los coeficientes de correlación entre las variables independientes de un modelo.
La matriz de correlación le brinda una idea sobre su conjunto de datos.
Ejemplo: – Si desea predecir el precio de un automóvil sobre la base del tipo de combustible, el tipo de transmisión, la edad… etc. Entonces, en ese caso, una matriz de correlación es muy útil para predecir el precio de un automóvil.
Con esto, podemos ver que si la relación entre dos variables: – –
Si la relación es 1, entonces la relación es fuerte
Si la relación es 0, entonces significa que la relación es neural
Artículos Relacionados:
