¿Qué relación existe entre dos variables cualitativas?

Hemos visto que la forma en que muestra y resume variables depende de si se trata de una variable categórica o una variable de medición. Por ejemplo, se puede usar un gráfico de gráfico circular o un gráfico de barras para mostrar la distribución de una variable categórica, mientras que se puede usar un diagrama de caja o histograma para imaginar la distribución de una variable de medición. Para estudiar la relación entre dos variables, un gráfico de barras comparativas mostrará asociaciones entre variables categóricas, mientras que un diagrama de dispersión ilustra las asociaciones para las variables de medición. También hemos aprendido diferentes formas de resumir variables cuantitativas con medidas de centro y propagación y correlación. En esta lección nos centramos en resúmenes estadísticos de variables categóricas y sus relaciones.

Los resultados de esta pregunta se muestran en la Figura 6.2 a continuación, donde puede ver que la mayoría de los estudiantes de Penn State que estaban inscritos en Stat 100 durante ese semestre eran de los suburbios.

El gráfico de barras proporciona una imagen más informativa que un gráfico circular en este caso, ya que nos permite ver el orden natural de las categorías.

Ahora, es importante recordar que antes de que los datos se muestren en un gráfico de barras como el anterior, primero debe ser tabulado para calcular los porcentajes que nos permiten ver la distribución de la variable. Para una variable que implica dividir el recuento en cada categoría por el total para obtener la proporción, y luego convertirlos en porcentajes multiplicando las proporciones en un 100% (si se desean porcentajes). La Tabla 6.1 muestra la distribución y los cálculos para los datos en el Ejemplo 6.1.

¿Qué es la asociación entre dos variables cuantitativas?

Como lo hicimos al considerar solo una variable, comenzamos con una pantalla gráfica. Un diagrama de dispersión es la técnica de visualización más útil para comparar dos variables cuantitativas. Trazamos en el eje y la variable que consideramos la variable de respuesta y en el eje x colocamos la variable explicativa o predictor.

¿Cómo determinamos qué variable es cuál? En general, la variable explicativa intenta explicar o predecir el resultado observado. La variable de respuesta mide el resultado de un estudio. Incluso se puede considerar explorar si una variable causa la variación en otra variable; por ejemplo, un estudio de investigación popular es que las personas más altas tienen más probabilidades de recibir salarios más altos. En este caso, la altura sería la variable explicativa utilizada para explicar la variación en los salarios variables de respuesta.

Al resumir la relación entre dos variables cuantitativas, debemos considerar:

  • Asociación/dirección (es decir, positiva o negativa)
  • Forma (es decir, lineal o no lineal)
  • Fuerza (débil, moderada, fuerte)

Nos referiremos al conjunto de datos del examen (final.mtw o final.xls), que consiste en una muestra aleatoria de 50 estudiantes que tomaron STAT200 el semestre pasado. Los datos consisten en su promedio de semestre en concursos de dominio y su puntaje en el examen final. Construimos un diagrama de dispersión que muestra la relación entre el promedio del cuestionario (variable explicativa o predictor) y final (variable de respuesta). Por lo tanto, estamos estudiando si el rendimiento de los estudiantes en los concursos de dominio explica la variación en su puntaje final del examen. Es decir, ¿se puede considerar el rendimiento del concurso de dominio un predictor de la puntuación final del examen? Creamos este gráfico usando Minitab o SPSS:

  • Asociación/dirección (es decir, positiva o negativa)
  • Forma (es decir, lineal o no lineal)
  • Fuerza (débil, moderada, fuerte)
  • En el cuadro de texto debajo de las variables Y ingrese las variables finales y debajo de x ingrese al promedio de cuestionario
  • ¿Qué es asociación entre dos variables cualitativas?

    Este tutorial camina a través de buenas mesas y gráficos para investigar la asociación entre variables categóricas o dicotómicas. Si se cumplen suposiciones estadísticas, estos pueden ser seguidos por una prueba de chi-cuadrado.
    Como ejemplo, veremos si Sector_2010 y Sector_2011 en Freelancers.sAV están asociados de alguna manera.

    Antes de hacer cualquier otra cosa, primero echemos un vistazo rápido a ambas variables por separado. En la sintaxis a continuación, primero nos aseguramos de ver las etiquetas de valores y valores en nuestras tablas de salida (paso 1). A continuación, ejecutamos un comando de frecuencias básicas.

    Establezca tnumbers ambos.

    *2. Ejecutar frecuencias.

    Ambas variables contienen valores de 1 a 5 más valores faltantes del sistema. Dado que ambas variables son nominales, podemos incluir estas misiones del sistema como otra categoría. Esto mantiene el N agradable y constante sobre análisis y da como resultado tablas más limpias. Para tablas más bonitas, puede eliminar «válido» con un script de Python y aplicar el estilo con una plantilla de tabla SPSS (archivo .stt). La sintaxis a continuación muestra cómo hacerlo con Recode.

    Hasta ahora, solo echamos un vistazo a ambas variables por separado. Para ver cómo están asociados, inspeccionaremos su tabla de contingencia obtenida de las diagramas. Mostrar porcentajes de columna sin frecuencias es nuestra opción preferida aquí.

    Crosstabs sector_2011 por la columna Sector_2010 /Cells.

    Conclusión: Las variables están fuertemente relacionadas. De nuevo, tenga en cuenta que solo estamos describiendo los datos en cuestión. No estamos haciendo ningún intento de generalizar estos resultados a ninguna población más grande. Aproximadamente, la mayoría de las personas que trabajaban en un sector en 2010 permanecieron en el mismo sector en 2011. Por ejemplo, el 60% de los encuestados que trabajaron en la industria en 2010 se mantuvieron en la industria. Otro 20% se trasladó a las finanzas y el 20% final se trasladó a «otro».

    ¿Qué prueba se utiliza para determinar la asociación relación entre dos variables cualitativas?

    Esta prueba se usa para determinar si dos variables categóricas son independientes o si de hecho están relacionadas entre sí. Si dos variables categóricas son independientes, entonces el valor de una variable no cambia la distribución de probabilidad de la otra. Si se relacionan dos variables categóricas, entonces la distribución de una depende del nivel del otro. Esta prueba mide las diferencias en la distribución condicional observada de una variable a través de los niveles del otro, y la compara con la distribución marginal (general) de esa variable.

    Una distribución condicional es la distribución de todos los niveles de una variable dado que la otra variable es igual a algún valor. La distribución marginal es la distribución general de una variable, ignorando la otra.

    La distribución marginal del color del cabello es 43% rubia/57% morena. La distribución condicional del color del cabello para mujeres es 47% rubia/53% morena, mientras que la distribución condicional del color del cabello para hombres es 36% rubia/67% morena.

    La prueba de independencia de chi-cuadrado determinará si las diferencias entre las distribuciones condicionales y marginales son significativas, o si son lo suficientemente pequeñas como para esperar simplemente por casualidad aleatoria.

    Este video analiza si el grupo de tratamiento y el estado de los síntomas son independientes para los participantes en un ensayo de drogas aleatorias.

    Conclusión de la muestra: después de verificar los supuestos del muestreo aleatorio y señalar que ninguno de los recuentos esperados para nuestros datos era inferior a 5, completamos una prueba de independencia de chi-cuadrado para determinar si el grupo de tratamiento y el estado de los síntomas son independientes. No logramos rechazar la hipótesis nula y encontramos evidencia de que el tratamiento y los síntomas son independientes (x2 (df = 1) = 3.42, p> .05).

    ¿Qué prueba se utiliza para determinar la relación entre dos variables cuantitativas?

    En el experimento, medimos los dos caracteres continuos que están asociados entre sí. Por ejemplo, la altura de la planta y la temperatura de la atmósfera. En consecuencia, para comprender la relación entre dos de estas variables, necesitamos saber cómo están relacionadas y cómo la relación se puede expresar en forma visual.

    La técnica estadística para determinar la relación o asociación entre dos variables cuantitativas se llama correlación. En otras palabras, determina la relación entre dos variables cuantitativas. Sin embargo, no prueba que una variable particular cause el cambio en el otro.

    En el coeficiente de correlación, medimos el grado de relación entre dos conjuntos de figuras en términos de otro parámetro. Un coeficiente de correlación simple se denota mediante la letra «R». Además, se conoce como correlación de Pearson o coeficiente de correlación de productos de productos. Para el coeficiente de población, utilizamos la letra griega «ρ». Su pronunciación es «rho». Ciertamente, el valor absoluto de R sigue siendo constante independientemente del cambio de origen.

    El alcance de la correlación varía entre menos uno y más uno (-1 ≤ r ≤ 1). El valor está en una fracción con un signo positivo o negativo.

    • El signo de «R» denota la naturaleza de la asociación.
    • El valor de «R» denota la fuerza de la asociación.

    Es común usar un diagrama de dispersión como representación visual de los datos. Podemos mostrar en un papel cuadriculado trazando cada par de variables (x e y). En consecuencia, colocar un punto en el punto correspondiente a los valores de X e Y.

    ¿Qué análisis estadístico se realiza para evaluar la relación entre dos variables nominales?

    El objetivo principal de una prueba estadística es responder la pregunta: «¿Cuál es la probabilidad de obtener un resultado como mis datos observados, si la hipótesis nula fuera cierta?» Si es muy poco probable que obtenga los datos observados bajo la hipótesis nula, rechaza la hipótesis nula. Las pruebas exactas, como la prueba exacta de la bondad de ajuste, son diferentes. No hay estadística de prueba; En cambio, calcula directamente la probabilidad de obtener los datos observados bajo la hipótesis nula.
    Se han desarrollado muchas pruebas estadísticas para estimar el tamaño de la muestra necesario para detectar un efecto particular o estimar el tamaño del efecto que se puede detectar con un tamaño de muestra particular. Para hacer un análisis de energía, debe especificar un tamaño de efecto. Este es el tamaño de la diferencia entre su hipótesis nula y la hipótesis alternativa que espera detectar. Para la investigación biológica aplicada y clínica, puede haber un tamaño de efecto muy definido que desea detectar.
    Use la prueba de chi-cuadrado de bondad de ajuste cuando tenga una variable nominal con dos o más valores. Compare los recuentos observados de observaciones en cada categoría con los recuentos esperados, que calcula utilizando algún tipo de expectativa teórica. Si el número esperado de observaciones en cualquier categoría es demasiado pequeño, la prueba de chi-cuadrado puede dar resultados inexactos, y debe usar una prueba exacta.
    Use la prueba G de bondad de ajuste cuando tenga una variable nominal con dos o más valores (como macho y femenino, o flores rosas, rosadas y blancas). Compare los recuentos observados de números de observaciones en cada categoría con los recuentos esperados, que calcula utilizando algún tipo de expectativa teórica.
    Use la prueba de independencia de chi-cuadrado cuando tenga dos variables nominales, cada una con dos o más valores posibles. Desea saber si las proporciones para una variable son diferentes entre los valores de la otra variable.

    ¿Qué mide el grado de asociación entre dos variables?

    Medida de asociación, en estadísticas, cualquiera de los diversos factores o coeficientes utilizados para cuantificar una relación entre dos o más variables. Las medidas de asociación se utilizan en varios campos de investigación, pero son especialmente comunes en las áreas de epidemiología y psicología, donde con frecuencia se utilizan para cuantificar las relaciones entre exposiciones y enfermedades o comportamientos.

    Una medida de asociación puede ser determinada por cualquiera de varios análisis diferentes, incluido el análisis de correlación y el análisis de regresión. (Aunque los términos correlación y asociación a menudo se usan indistintamente, la correlación en un sentido más estricto se refiere a la correlación lineal, y la asociación se refiere a cualquier relación entre las variables). El método utilizado para determinar la fuerza de una asociación depende de las características de los datos para cada variable. Los datos pueden medirse en una escala de intervalo/relación, una escala ordinal/de rango o una escala nominal/categórica. Estas tres características pueden considerarse como categorías continuas, enteras y cualitativas, respectivamente.

    Un ejemplo típico para cuantificar la asociación entre dos variables medidas en una escala de intervalo/relación es el análisis de la relación entre la altura y el peso de una persona. Cada una de estas dos variables características se mide en una escala continua. La medida apropiada de asociación para esta situación es el coeficiente de correlación de Pearson, R (Rho), que mide la fuerza de la relación lineal entre dos variables a escala continua. El coeficiente R adquiere los valores de −1 a +1. Los valores de −1 o +1 indican una relación lineal perfecta entre las dos variables, mientras que un valor de 0 indica una relación lineal. (Los valores negativos simplemente indican la dirección de la asociación, por la cual aumenta una variable, la otra disminuye). Los coeficientes de correlación que difieren de 0 pero no son −1 o +1 indican una relación lineal, aunque no una relación lineal perfecta. En la práctica, R (el coeficiente de correlación de la población) se estima por R, que es el coeficiente de correlación derivado de los datos de la muestra.

    Aunque el coeficiente de correlación de Pearson es una medida de la fuerza de una asociación (específicamente la relación lineal), no es una medida de la importancia de la asociación. La importancia de una asociación es un análisis separado del coeficiente de correlación de la muestra, R, utilizando una prueba t para medir la diferencia entre la R y la R esperada bajo la hipótesis nula.

    ¿Qué es el grado de asociación entre dos variables?

    El propósito frecuente de los estudios estadísticos es la búsqueda de relaciones de causa-efecto y/o asociación para:

    • interpretar;
    • prever;
    • Simular y controlar fenómenos reales.

    Para lograr este objetivo, es necesario enfatizar el concepto de ocurrencia contemporánea de conjuntos de métodos en una unidad estadística dada.

    • interpretar;
    • prever;
    • Simular y controlar fenómenos reales.
  • Se obtiene una distribución múltiple, cuando en cada unidad estadística hay, conjuntamente, dos o más caracteres estadísticos (cualitativos y/o cuantitativos).
  • Se habla de doble variable, triple, n -Pla, dependiendo de que las variables detectadas sean, 2, 3 o n.
  • Una tabla de contingencia es una tabla que consiste en líneas que representan los valores posibles (o categorías) de una variable y columnas que representan los valores posibles (o categorías) de una segunda variable. Los datos en el cuerpo de la tabla son el número de veces en las que aparece cada par de valores/categorías.
  • Calles de dos vías y múltiples
  • (X1, y1), (x2, y2), (xn, yn) detección de estadísticas dobles

    • interpretar;
    • prever;
    • Simular y controlar fenómenos reales.
  • Se obtiene una distribución múltiple, cuando en cada unidad estadística hay, conjuntamente, dos o más caracteres estadísticos (cualitativos y/o cuantitativos).
  • Se habla de doble variable, triple, n -Pla, dependiendo de que las variables detectadas sean, 2, 3 o n.
  • Una tabla de contingencia es una tabla que consiste en líneas que representan los valores posibles (o categorías) de una variable y columnas que representan los valores posibles (o categorías) de una segunda variable. Los datos en el cuerpo de la tabla son el número de veces en las que aparece cada par de valores/categorías.
  • Calles de dos vías y múltiples
  • Las variables X e Y univariadas se llaman componentes.
  • El conocimiento de la doble distribución permite el conocimiento de los componentes, pero lo contrario no es cierto.
  • Dada una distribución doble (x, y), la distribución condicional y | xi, es la distribución simple que se obtiene si fija x = xi y el análisis de la variable y se limita solo a los sujetos para los cuales es x = xi .
  • ¿Cómo se mide la asociación entre dos variables?

    Ahora consideraremos dos medidas que se pueden usar para medir la relación entre dos variables.

    La primera es la covarianza, y la segunda es el coeficiente de correlación, a menudo denotado (r ). (Tenga en cuenta que (r ) es el coeficiente de correlación de la muestra, mientras que el coeficiente de correlación de la población generalmente se denota ( rho ).

    Si la covarianza y los valores de correlación son positivos, esto indica que las dos variables están positivamente relacionadas. En otras palabras, cuando uno aumenta, el otro generalmente también aumenta.

    Por otro lado, si la covarianza y los valores de correlación son negativos, esto indica que las dos variables están relacionadas negativamente. Es decir, cuando uno aumenta, el otro generalmente disminuirá.

    Los valores de covarianza y correlación de 0 indican que las dos variables no están relacionadas (al menos en un sentido lineal).

    Además de su signo (positivo o negativo), el valor de covarianza puede ser difícil de interpretar, especialmente si las dos variables están en diferentes escalas. Sin embargo, la correlación es una medida estandarizada, lo que significa que es mucho más fácil de interpretar. El coeficiente de correlación es siempre entre -1 y 1. El más cercano (| r | ) (el valor absoluto de (r )) es 1, más fuerte es la relación lineal entre las dos variables.

    La siguiente tabla se puede usar como guía al interpretar el coeficiente de correlación (R ).

    Tabla 4.1: Una guía para interpretar la fuerza de un coeficiente de correlación.

    ¿Qué método de investigación se usa cuando se estudia la asociación entre dos variables?

    • dos categorías variables no relacionadas;
    • Una variable categórica no ordenada y una variable categórica ordenada.

    Como en el caso de las relaciones entre dicotomías, se utilizan las tablas de contingencia.

    • dos categorías variables no relacionadas;
    • Una variable categórica no ordenada y una variable categórica ordenada.
  • La diagonal no adquiere importancia;
  • Adquieren importancia: el equilibrio entre las frecuencias de las categorías y el número de categorías para cada variable.
  • Las frecuencias entre las categorías deben estar bien equilibradas;
  • Las categorías para cada variable no deben ser demasiado numerosas para evitar unas células demasiado altas. De hecho, demasiado alta, varias celdas implican una alta posibilidad de celdas vacías (para demostrar esta propiedad, es necesario introducir el concepto de frecuencias esperadas).
  • Como se dijo anteriormente, cada celda contiene cuatro tipos de información:

    • dos categorías variables no relacionadas;
    • Una variable categórica no ordenada y una variable categórica ordenada.
  • La diagonal no adquiere importancia;
  • Adquieren importancia: el equilibrio entre las frecuencias de las categorías y el número de categorías para cada variable.
  • Las frecuencias entre las categorías deben estar bien equilibradas;
  • Las categorías para cada variable no deben ser demasiado numerosas para evitar unas células demasiado altas. De hecho, demasiado alta, varias celdas implican una alta posibilidad de celdas vacías (para demostrar esta propiedad, es necesario introducir el concepto de frecuencias esperadas).
  • Frecuencia observada (fo);
  • Frecuencia mínima posible;
  • Máxima frecuencia posible;
  • Frecuencia de gastos (Fe).
  • La frecuencia que se obtendría en caso de independencia entre las variables se define como una frecuencia esperada.

    Está dado por el producto de los marginales correspondientes (fila y columna), dividió el número total de casos: (ver figura).

    • dos categorías variables no relacionadas;
    • Una variable categórica no ordenada y una variable categórica ordenada.
  • La diagonal no adquiere importancia;
  • Adquieren importancia: el equilibrio entre las frecuencias de las categorías y el número de categorías para cada variable.
  • Las frecuencias entre las categorías deben estar bien equilibradas;
  • Las categorías para cada variable no deben ser demasiado numerosas para evitar unas células demasiado altas. De hecho, demasiado alta, varias celdas implican una alta posibilidad de celdas vacías (para demostrar esta propiedad, es necesario introducir el concepto de frecuencias esperadas).
  • Frecuencia observada (fo);
  • Frecuencia mínima posible;
  • Máxima frecuencia posible;
  • Frecuencia de gastos (Fe).
  • CI = marginal de la columna de la celda i
  • ri = línea marginal de la columna I
  • N = número de casos
  • Los desechos entre las frecuencias esperadas y el equilibrio de frecuencias observadas.

    ¿Qué tipo de estudios miden el grado de asociación entre dos o más variables?

    Las pruebas de hipótesis son herramientas estadísticas ampliamente utilizadas para evaluar si
    Hay una asociación entre dos o más variables. Estas pruebas proporcionan un
    probabilidad del error tipo 1 (valor p), que se utiliza para aceptar o rechazar el
    Hipótesis de estudio nulo.

    Para proporcionar una guía práctica para ayudar a los investigadores a seleccionar cuidadosamente la mayoría
    Procedimiento apropiado para responder a la pregunta de investigación. Discutimos la lógica de
    Prueba de hipótesis y presente los requisitos previos de cada procedimiento basado en
    Ejemplos prácticos.

    Como se muestra en publicaciones anteriores, cada estudio científico debe comenzar con una clara
    Pregunta de investigación definida 1-3 En este documento, cubriremos el básico
    Suposiciones del análisis estadístico que se siguen en las pruebas de asociación bivariada
    (que implican una exposición y un resultado) y revisan los principios generales
    subyacente a su implementación. Tenemos la intención de proporcionar a los lectores un
    guía que les ayudará a elegir las pruebas más apropiadas para cada situación o
    pregunta de investigación.

    La hipótesis se define como una «declaración que puede ser cuestionada o probada, y que puede ser
    refutado en estudios científicos «. 2 a lo largo
    con la hipótesis nula (H0: la suposición original sin diferencia o no
    asociación que se acepta como verdadera para una situación dada), existe el
    hipótesis alternativa (ha – una explicación adicional para el mismo
    situación, que puede reemplazar H0 y debe ser probada). Por ejemplo, en el
    ensayo clínico aleatorizado (ECA) por Bagatin et al., H0 establece que ambos orales
    La isotretinoína (ISO) y el ácido retinoico tópico 0.05% (RA- 0.05%) tienen el mismo efecto en
    Varios resultados relacionados con el fotográfico.4 Por el contrario, HA probado en el estudio mencionado anteriormente supone
    que el efecto de la isotretinoína es mejor que el efecto de la AR tópica en
    fotográfico.

    ¿Qué método estadístico nos ayuda a saber si existe asociación entre variables cualitativas?

    Esta revisión introduce métodos para investigar las relaciones entre dos variables cualitativas (categóricas). Se describe la prueba de asociación χ2, junto con las modificaciones necesarias para muestras pequeñas. También se describe la prueba de tendencia, en la que al menos una de las variables es ordinal. Se discute la medición del riesgo. Se describe el cálculo de los intervalos de confianza para proporciones y diferencias entre proporciones. Se consideran situaciones en las que se combinan las muestras.

    En las revisiones de estadísticas anteriores, la mayoría de los procedimientos discutidos son apropiados para mediciones cuantitativas. Sin embargo, los datos cualitativos o categóricos se recopilan con frecuencia en investigaciones médicas. Por ejemplo, las variables evaluadas pueden incluir sexo, grupo sanguíneo, clasificación de enfermedades o si el paciente sobrevivió. Las variables categóricas también pueden comprender variables cuantitativas agrupadas, por ejemplo, la edad podría agruparse en ‘menores de 20 años’, ’20 –50 años ‘y’ más de 50 años ‘. Algunas variables categóricas pueden ser ordinales, es decir, se pueden ordenar los datos que surgen. El grupo de edad es un ejemplo de una variable categórica ordinal.

    Cuando se utilizan variables categóricas en una investigación, los datos se pueden resumir en forma de frecuencias o recuentos de pacientes en cada categoría. Si estamos interesados ​​en la relación entre dos variables, las frecuencias se pueden presentar en una tabla bidireccional o contingencia. Por ejemplo, la tabla11 comprende el número de pacientes en una clasificación bidireccional de acuerdo con el sitio de cánula venosa central y complicaciones infecciosas. El interés aquí es si hay alguna relación o asociación entre el sitio de canulación y la incidencia de complicaciones infecciosas. La cuestión también podría expresarse en términos de proporciones, por ejemplo, si las proporciones de pacientes en los tres grupos determinados por el sitio de cánula venosa central difieren según el tipo de complicación infecciosa.

    Artículos Relacionados:

    Más posts relacionados:

    Deja una respuesta

    Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *