Ventajas y desventajas de la investigación no experimental

Los diseños no experimentales pueden abrir una serie de oportunidades de investigación ventajosas. Los beneficios incluyen:

  • La investigación no experimental se puede utilizar para analizar los eventos que han sucedido en el pasado.
  • La versatilidad del modelo se puede utilizar para observar muchos fenómenos únicos.
  • Este método de investigación es mucho más asequible que el tipo experimental.
  • Estas muestras limitadas no representan la población más grande.
  • La investigación solo se puede utilizar para observar una sola variable.
  • El sesgo o el error del investigador en la metodología pueden conducir a resultados inexactos.

Estas desventajas se pueden mitigar aplicando el método no experimental a las situaciones correctas.

La investigación experimental a menudo implica tomar dos o más variables (independientes y dependientes) e intentar desarrollar una relación causal entre ellas. Los diseños experimentales serán estrechamente controlados por los investigadores, y las pruebas en sí mismas a menudo serán mucho más intrincadas y expansivas que las no experimentales.

La investigación no experimental es la más adecuada para situaciones en las que desea observar eventos que ya han sucedido; O solo está interesado en recopilar información sobre una variable aislada.

Los diseños experimentales son mucho más comunes en los campos de la ciencia: medicina, biología, psicología, etc. El diseño no experimental a menudo ve el uso en negocios, política, historia y academia general.

¿Por qué una investigación es no experimental?

32 de estos elementos se conservan en la diversidad de las diversas versiones de la fenomenología, ya sea teórica o experimental.

33StumpF define la fenomenología «una pre-ciencia realizada por físicos, fisiólogos y psicólogos» que coinciden con el dominio de las apariencias que se investigarán conceptual y experimentalmente para descubrir sus «leyes estructurales» independientes de las funciones psíquicas13.

34koffka califica la fenomenología como un método de observación que permite que una descripción «completa y no preventada» de la experiencia directa sea acompañada de experimentación, ya que la buena descripción de un fenómeno es suficiente para excluir muchas teorías e indicar qué propiedades deben aparecer en la dominio de una teoría adecuada14. La explicación de un hecho perceptivo consiste, de hecho, en el descubrimiento de sus partes y relaciones constitutivas, en la formulación de las condiciones de realización con los términos que en el nivel correcto de abstracción designan o son atribuibles a los que se pueden comparar.

35 Para Köhler, la fenomenología analiza y descubre formas y estructuras inmanentes a las apariencias de las cosas: relaciones de dependencia compatible y atribuible a la evidencia de experiencia perceptiva a diferencia, por ejemplo, de la relación causal entre una apariencia y una propiedad física del asunto o del asunto Actividad del sistema nervioso 15. El carácter inmanente a las apariencias perceptivas de su forma o estructura atestigua la continuidad que une a la SO Brentano School a la Escuela de Graz y Berlín y ejemplifica el reconocimiento de la necesidad de reyes en los fenómenos. Como señala Jaeger (1994), esta es la base del principio de «preservación de la forma inmanente de fenómenos» en la explicación, reclamada en controversia con Kant en las conferencias filosóficas de Köhler.

¿Por qué es diseño no experimental?

David Reinfurt es un diseñador y ensayista gráfico en Nueva York, entre los más importantes de su generación y panorama contemporáneo en general. Sus obras están dispersas a lo largo de una trama compleja, de naturaleza colaborativa, a menudo difícil de seguir y rastrear: es coeditor de la Biblioteca Serving, una revista que se encuentra entre diseño, artes visuales, tecnología y literatura, que consiste en PDF descargable sobre Demanda y recolectada cada seis meses en formato físico por Sternberg Press; O-R-G es, en cambio, una pequeña casa de software con la que diseña y vende aplicaciones, guionistas y sitios con una vocación experimental; Finalmente, con Stuart Bertolotti-Bailey fundó Dexter Sinister, un estudio/librería en el Lower East Side que investiga las técnicas de publicación y producción de acuerdo con el modelo justo a tiempo, es decir, utilizando herramientas económicas disponibles en el radio corto y estrategias de distribución alternativa.

En su investigación, Reinfurt siempre ha puesto los límites entre el diseño y el arte en crisis, investigando (también desde un punto de vista «conceptual») las relaciones de datos para consolidadas entre tecnología, investigación, escritura y publicación. Gran parte de su trabajo tiene que hacer con el tiempo: como medio, como medida, a veces como sujeto. Como David nos dijo en una conversación reciente, «En 2011 con Dexter Sinister, publicamos en Note on the Time, un texto que explica cómo las computadoras en la red sincronizan el tiempo actual. Pero la conclusión de que hemos llegado es paradójica. Porque, como a menudo repito, el tiempo es el punto de que es duradero: así es como puede doblarse y doblarse. Una semana, una segunda, una temporada: todos son discretos equivalentes, pero ninguno es lo mismo. El presente puede ser cualquier tipo de longitud, desde la vibración única de un átomo de cesio hasta el ciclo de vida de una publicación ».

A partir del 7 de abril, una exposición en la Galería Colli en Roma se ha dedicado a Dexter Sinister el 9 de junio de este año; Es la segunda vez que Colli alberga el trabajo de Reinfurt: la primera fue exactamente hace un año, y en ambas ocasiones para regresar son las líneas de investigación comunes y colegas. De hecho, si la cita de 2018 trae el título de cómo diseñar (múltiplos), el del año pasado relee el legado de una cifra que el concepto de «múltiple» (ver más allá) ha sido investigado durante mucho tiempo, o Bruno Munari. Pero nuevamente, si la herencia de Munari puede hablar sobre Dexter Sinister, es imposible no comenzar desde lo que es el núcleo central, incluso en el sentido «filosófico», de la práctica del reinfurato. Y ese es siempre él: tiempo.

En 2014, Dexter Sinister reunió algunas obras en una exposición en el CAC en Vilnius. Entre los proyectos expuestos, también apareció una prensa en particular: esto:

Decirlo es el propio Reinfurt: «Es un trabajo de 2009: se titula 1200DPI y se obtuvo apoyando mi reloj Omega en un escáner normal y lanzando un escaneo de resolución muy alta. Ahora: la lámpara del escáner se mueve más lentamente que la segunda mano, por lo que en la imagen resultante la mano parece doblarse. Observando más de cerca, los canales que componen las imágenes proyectadas o digitales… »

¿Cuáles son las diferencias entre una investigación experimental y no experimental?

Los hallazgos de la investigación médica a menudo se encuentran con un escepticismo considerable, incluso cuando aparentemente provienen de estudios con metodologías sólidas que han sido sometidas a un análisis estadístico apropiado. Este es quizás particularmente el caso con respecto a los hallazgos epidemiológicos que sugieren que algún aspecto de la vida cotidiana es malo para las personas. De hecho, una historia popular reciente, The Rise and Fall of Modern Medicine, del periodista médico James Le Fanu, llegó a sugerir que la solución a los males de la medicina sería el cierre de todos los departamentos de epidemiología.1

Un factor contributivo es que la literatura médica muestra una fuerte tendencia a acentuar lo positivo; Los resultados positivos tienen más probabilidades de ser reportados que los resultados nulos.2–4 por este medio solo se publicará una serie de hallazgos puramente casuales, ya que mediante el razonamiento convencional examinará 20 asociaciones producirá un resultado que es «significativo a p = 0.05» por oportunidad sola. Si solo se publican hallazgos positivos, entonces pueden considerarse erróneamente como importancia en lugar de ser los resultados de posibilidades necesarios producidos por la aplicación de criterios de significado basados ​​en la significación estadística. Como muchos estudios contienen cuestionarios largos que recopilan información sobre cientos de variables y miden una amplia gama de resultados potenciales, varios hallazgos falsos positivos están prácticamente garantizados. Sin embargo, el alto volumen y a menudo contradictorio de la naturaleza de los resultados de la investigación médica no se debe solo al sesgo de publicación. Un problema más fundamental es el malentendido generalizado de la naturaleza de la significación estadística.

En este artículo consideramos cómo surgió la práctica de las pruebas de significancia; Una división arbitraria de resultados como «significativa» o «no significativa» (de acuerdo con el umbral comúnmente utilizado de P = 0.05) no era la intención de los fundadores de inferencia estadística. Los valores de P deben ser mucho más pequeños que 0.05 antes de que puedan considerarse para proporcionar evidencia fuerte contra la hipótesis nula; Esto implica que se necesitan estudios más poderosos. Los informes de la investigación médica deben continuar pasando de la idea de que los resultados son significativos o no significativos para la interpretación de los hallazgos en el contexto del tipo de estudio y otras pruebas disponibles. Los editores de revistas médicas están en una excelente posición para fomentar tales cambios, y concluimos con las pautas propuestas para informar e interpretar.

La confusión que existe en la práctica actual de las pruebas de hipótesis se remonta a una controversia que se desencadenó entre los fundadores de inferencia estadística hace más de 60 años.6–8 La idea de las pruebas de significancia fue introducida por R A Fisher. Supongamos que queremos evaluar si un nuevo medicamento mejora la supervivencia después del infarto de miocardio. Estudiamos un grupo de pacientes tratados con el nuevo medicamento y un grupo comparable tratado con placebo y encontramos que la mortalidad en el grupo tratada con el nuevo medicamento es la mitad del grupo tratado con placebo. Esto es alentador, pero ¿podría ser una oportunidad de encontrar? Examinamos la pregunta calculando un valor de P: la probabilidad de obtener al menos una doble diferencia en las tasas de supervivencia si el medicamento realmente no tiene ningún efecto en la supervivencia.

Fisher vio el valor de P como un índice que mide la fuerza de la evidencia contra la hipótesis nula (en nuestro ejemplo, la hipótesis de que el fármaco no afecta las tasas de supervivencia). Él abogó por P <0.05 (significado del 5%) como un nivel estándar para concluir que hay evidencia en contra de la hipótesis probada, aunque no como una regla absoluta. “Si P está entre 0.1 y 0.9 ciertamente no hay razón para sospechar la hipótesis probada. Si está por debajo de 0.02, se indica fuertemente que la hipótesis no explica la totalidad de los hechos. A menudo no estaremos extraviados si dibujamos una línea convencional a 0.05. . . . ”9 Lo más importante, Fisher argumentó firmemente que la interpretación del valor de P era en última instancia para el investigador. Por ejemplo, un valor de P de alrededor de 0.05 no podría conducir a ni creencia ni incredulidad en la hipótesis nula, sino a la decisión de realizar otro experimento.

Artículos Relacionados:

Related Posts

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *