Los principales factores a tener en cuenta para la confiabilidad y validez de un instrumento

Cómo determinar la validez y confiabilidad de un instrumento por: Yue Li

La validez y la confiabilidad son dos factores importantes a considerar al desarrollar y probar cualquier instrumento (por ejemplo, prueba de evaluación de contenido, cuestionario) para su uso en un estudio. La atención a estas consideraciones ayuda a asegurar la calidad de su medición y de los datos recopilados para su estudio.

La validez se refiere al grado en que un instrumento mide con precisión lo que pretende medir. Tres tipos comunes de validez para los investigadores y evaluadores a considerar son las validaciones de contenido, construcción y criterio.

  • La validez del contenido indica la medida en que los elementos miden o representan adecuadamente el contenido de la propiedad o rasgo que el investigador desea medir. La revisión de expertos en la materia es a menudo un buen primer paso en el desarrollo de instrumentos para evaluar la validez del contenido, en relación con el área o el campo que está estudiando.
  • La validez de la construcción indica la medida en que un método de medición representa con precisión una construcción (por ejemplo, una variable latente o fenómeno que no se puede medir directamente, como la actitud o creencia de una persona) y produce una observación, distinta de la que se produce por una medida de otra construcción. Los métodos comunes para evaluar la validez de la construcción incluyen, entre otros, análisis factorial, pruebas de correlación y modelos de teoría de respuesta de ítems (incluido el modelo Rasch).
  • La validez relacionada con el criterio indica la medida en que las puntuaciones del instrumento se correlacionan con un criterio externo (es decir, generalmente otra medición de un instrumento diferente) en la actualidad (validez concurrente) o en el futuro (validez predictiva). Una medición común de este tipo de validez es el coeficiente de correlación entre dos medidas.

Muchas veces, al desarrollar, modificar e interpretar la validez de un instrumento determinado, en lugar de ver o probar cada tipo de validez individualmente, los investigadores y evaluadores prueban evidencia de varias formas diferentes de validez, colectivamente (por ejemplo, ver el trabajo de Samuel Messick con respecto a validez).

La fiabilidad se refiere al grado en que un instrumento produce resultados consistentes. Las medidas comunes de confiabilidad incluyen consistencia interna, prueba-retratación y confiabilidad entre evaluadores.

¿Cómo saber la confiabilidad y validez de un instrumento?

Con el fin de verificar la precisión y la aplicabilidad, es necesario evaluar una escala de medición con varios elementos, en términos de confiabilidad, validez y generalización. Estas son algunas cualidades favoritas que miden la bondad en la medición de las características consideradas. La validez está relacionada con la autenticidad de la investigación, mientras que la confiabilidad no es más que la repetibilidad de los resultados. Este artículo analizará las diferencias fundamentales entre la validez y la confiabilidad.

En estadísticas, el término validez implica utilidad. Es el medidor más importante que indica el grado en que la herramienta de investigación mide, lo que se supone que debe medir.

Simplemente mide el punto en el que las diferencias descubiertas con la escalera reflejan las diferencias reales, entre los objetos en las características en el estudio, en lugar de un error sistemático y aleatorio. Para ser considerado perfectamente válido, no debe tener ningún error de medición. Hay tres tipos de validez, que son:

  • Validez de contenido: también conocida como la validez de la cara, es el punto donde la escala proporciona una cobertura adecuada del sujeto sujeto a las pruebas.
  • Validez del criterio: el tipo de validez que mide el rendimiento de la herramienta de medición, o si se comporta como se esperaba o se estima, en comparación con las otras variables, elegidos como un parámetro significativo. El criterio debe ser relevante, imparcial, confiable, etc.

¿Cómo se determina la validez de un instrumento?

Validez: capacidad de un instrumento psicométrico para medir lo que se supone que debe medir

En mi artículo de abril de 2016, estaba hablando de psicometría utilizada por los investigadores para cuantificar conceptos abstractos, como la calidad de vida. (Para facilitar la lectura, hablaré aquí de los instrumentos para designar todos los instrumentos psicométricos). Para los investigadores y aquellos interesados ​​en su trabajo, surge una pregunta importante: cómo saber si un instrumento es válido (de lo contrario, si mide lo que es se supone que mide)?

Los diseñadores de instrumentos utilizan métodos complejos para determinar la validez de un instrumento. Por su parte, aquellos que leen el trabajo de investigación deben tener algunas nociones básicas sobre la validez de los instrumentos, ya que determina si el instrumento es adecuado para medir un concepto. Un instrumento válido es un instrumento que se ha demostrado que tiene dos características: validez conceptual (también llamada validez del edificio) y validez de los criterios.

La validez conceptual se puede definir como la capacidad de un instrumento psicométrico para tener en cuenta un concepto abstracto. La determinación de la validez conceptual es un proceso subjetivo en el que los investigadores confían en su conocimiento teórico del concepto para determinar cómo el instrumento refleja nuestra comprensión de este concepto. El control de la validez aparente y la validez del contenido son las dos formas más comunes de verificar la validez conceptual.

Para establecer la validez aparente, uno debe mirar el instrumento en su conjunto y evaluar si, en apariencia, parece traducirse el concepto tal como lo entendemos. Este proceso es completamente subjetivo; Por lo tanto, deberán hacerse otras pruebas para demostrar validez. Para establecer la validez del contenido, debemos ir más allá: varios especialistas en contenido evalúan la relevancia de los diferentes elementos del instrumento para el concepto que medimos. En el caso de un instrumento diseñado para medir la calidad de vida, por ejemplo, los especialistas determinarán si los elementos previstos cubren los factores que la investigación se asocia con la calidad de vida, como el bienestar familiar, emocional y social.

¿Cuando hablamos de confiabilidad y validez en una prueba?

Es un error común suponer que la confiabilidad y la validez, según se relacionan con las pruebas de pre-empleo, son esencialmente lo mismo.

No lo son. Y si está comprando para una evaluación de contratación, es importante comprender tanto qué significan ambos conceptos, por qué son tan importantes y cómo difieren.

De los dos términos, la confiabilidad de la evaluación es el concepto más simple para explicar y comprender.

Aquí hay una buena definición de confiabilidad en un contexto de investigación: si una evaluación es confiable, los resultados serán muy similares sin importar cuándo alguien tome la prueba. Si los resultados son inconsistentes, la prueba no se considera confiable.

Entonces, si se está enfocando en la confiabilidad de una prueba, la pregunta que debe hacer es: ¿son consistentes los resultados de la prueba? Si alguien toma la prueba hoy, dentro de una semana y dentro de un mes, ¿serán sus resultados los mismos?

Para determinar la confiabilidad de sus pruebas, las compañías de evaluación prestan mucha atención a dos aspectos de la confiabilidad en particular: volver a probar la confiabilidad y las medidas de consistencia internas.

Descubra por qué las evaluaciones de contratación basadas en la ciencia son más útiles para identificar el potencial de los candidatos que currículums, referencias y entrevistas aquí.

Para confirmar la confiabilidad de una prueba, las compañías de evaluación determinan la coherencia con el tiempo con la confiabilidad de prueba-retratación. Con este tipo, el mismo grupo de personas recibe la prueba dos veces (con unos días o semanas de diferencia) para detectar diferencias en los resultados.

¿Qué es la confiabilidad de un instrumento?

La fiabilidad del instrumento se define como la medida en que un instrumento mide constantemente lo que se supone que debe. El termómetro de un niño sería muy confiable como herramienta de medición, mientras que una prueba de personalidad tendría menos confiabilidad.

1. La fiabilidad de prueba-retratación es la correlación entre dos mediciones sucesivas con la misma prueba. Por ejemplo, puede dar su prueba por la mañana a su muestra de piloto y luego nuevamente por la tarde. Los dos conjuntos de datos deben estar altamente correlacionados si la prueba es confiable. La muestra piloto debe responder teóricamente de la misma manera si nada ha cambiado.

2. La fiabilidad de las formas equivalentes es la administración sucesiva de dos formas paralelas de la misma prueba. Un buen ejemplo es el SAT. Hay dos versiones que miden las habilidades verbales y matemáticas. Dos formularios para medir las matemáticas deben estar altamente correlacionadas y eso documentaría la confiabilidad.

3. La mitad de confiabilidad dividida es cuando, por ejemplo, tiene la prueba de matemáticas SAT y divide los elementos en dos partes. Si correlacionó la primera mitad de los elementos con la segunda mitad de los elementos, deben estar altamente correlacionados si son confiables.

4. La confiabilidad de consistencia interna es cuando solo hay una forma de prueba disponible, o puede asegurarse de que los elementos sean homogéneos o que midan la misma construcción. Para hacer esto, utiliza procedimientos estadísticos como KR-20 o Alpha de Cronbach.

Para obtener más información, consulte Manual en Investigación y Evaluación para la Educación y las Ciencias del Comportamiento por Stephen Issac y William B. Michael.

¿Qué es confiabilidad del instrumento?

La confiabilidad o confiabilidad se entiende como la consistencia o estabilidad de las medidas de que se repite un proceso de medición (Prieto y Delgado, 2010). Esta es la medida en que una herramienta de evaluación produce resultados coherentes midiendo lo mismo en las mismas condiciones.

Por lo tanto, un procedimiento actual para obtener la confiabilidad de un instrumento es hacer que mida la misma variable inmutable varias veces. Como es complicado, es complicado, por ejemplo, que la ansiedad que siente un sujeto no varía, lo que generalmente hacemos es comparar la medida que obtenemos con el instrumento evaluado con el que nos da un instrumento que conocemos. Es confiable.

Volvamos al ejemplo de la escala. Si pesamos el objeto solo una vez, no podemos decir que la medida sea confiable, por lo que realizamos varias medidas y si observamos que obtenemos valores muy diferentes en cada uno, podemos decir que no es confiable.

Lo mismo ocurre con la investigación y con todos los instrumentos de los cuales obtenemos medidas, como pruebas psicotécnicas.

La validez y la confiabilidad son conceptos estrechamente vinculados, pero son diferentes, tienen diferentes objetivos y se centran en diferentes aspectos que proporcionan información diferente sobre la calidad del instrumento de investigación o medición. Examinemos algunas de las características que las hacen dispares:

Una de las principales diferencias entre la validez y la confiabilidad es que el primer grado en que un instrumento de investigación mide lo que se supone que debe medir. Mientras que el segundo mide el grado en que el instrumento de medición o investigación produce resultados consistentes, cuando se llevan a cabo mediciones repetidas.

¿Cómo se determina la confiabilidad del instrumento?

Algunos tipos fundamentales se enumeran a continuación para evaluar la confiabilidad del software.

Considere la siguiente situación en la que estamos probando una funcionalidad, digamos a las 9:30 y probando la misma funcionalidad nuevamente a las 13:00. Posteriormente, comparamos ambos resultados. Estamos obteniendo una alta correlación en los resultados. Entonces podemos decir que la prueba es «confiable». Por lo general, la confiabilidad de 0.8 o más significa que el sistema puede considerarse un producto altamente confiable.

Aquí, es muy importante tener en cuenta que la duración de la prueba sigue siendo la misma si tenemos 10 pasos en un caso de prueba, por lo que el número de pasos seguirá siendo el mismo para la ejecución de la prueba la próxima vez.

Considere el exempiodi particular una persona que participa en una prueba ‘Qi’ y obtiene 144 puntos. Después de hace 6 meses, la misma prueba ‘Qi’ y obtiene 68 puntos. En este caso, no se puede considerar una fuente ‘confiable’.

Se llama esto porque los probadores están realizando la prueba en dos formas simultáneamente.

La fiabilidad entre evaluadores se conoce como confiabilidad entre observadores o entre codificadores. Es un tipo especial de confiabilidad que consiste en varios evaluadores o jueces. Se ocupa de la consistencia de la calificación propuesta por varios evaluadores / observadores.

Por ejemplo, considere a un competidor que participa en una competencia de canto y gana 9,8.9 (de 10) puntos de múltiples jueces. Este puntaje puede considerarse «confiable» ya que es bastante coherente. Pero si hubiera marcado 9,3,7 (de 10), entonces no puede considerarse «confiable».

Artículos Relacionados:

Más posts relacionados:

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *