Las estadísticas, cuando se usan de manera engañosa, pueden engañar al observador casual para que crea algo más que lo que muestran los datos. Es decir, un mal uso de las estadísticas ocurre cuando un argumento estadístico afirma una falsedad. En algunos casos, el mal uso puede ser accidental. En otros, tiene un propósito y para la ganancia del perpetrador. Cuando la razón estadística involucrada es falsa o mal aplicada, esto constituye una falacia estadística.
La trampa de estadísticas falsas puede ser bastante perjudicial para la búsqueda del conocimiento. Por ejemplo, en la ciencia médica, corregir una falsedad puede tomar décadas y costar vidas.
Los usos erróneos pueden ser fáciles de caer. Los científicos profesionales, incluso los matemáticos y los estadísticos profesionales, pueden ser engañados incluso por algunos métodos simples, incluso si tienen cuidado de verificar todo. Se sabe que los científicos se engañan con estadísticas debido a la falta de conocimiento de la teoría de probabilidad y la falta de estandarización de sus pruebas.
Una definición utilizable es: «Uso indebido de las estadísticas: el uso de números de tal manera que, ya sea por intención o por ignorancia o descuido, las conclusiones son injustificadas o incorrectas». [1] Los «números» incluyen gráficos engañosos discutidos en otro lugar. El término no se encuentra comúnmente en los textos estadísticos y no se conoce ninguna definición autorizada. Es una generalización de la mentira con estadísticas que fue descrita ricamente por ejemplos de estadísticos hace 60 años.
La definición confronta algunos problemas (algunos son abordados por la fuente): [2]
¿Cómo surgio la estadística?
Al aplicar estadísticas a un problema científico, industrial o social, uno comienza con un proceso o población a estudiar. Esto podría ser una población de personas en un país, de granos de cristal en una roca, o de bienes fabricados por una fábrica particular durante un período determinado. En cambio, puede ser un proceso observado en varios momentos; Los datos recopilados sobre este tipo de «población» constituyen lo que se llama una serie temporal.
Por razones prácticas, en lugar de compilar datos sobre una población completa, uno generalmente estudia un subconjunto elegido de la población, llamado muestra. Los datos se recopilan sobre la muestra en un entorno observacional o experimental. Los datos se someten a análisis estadístico, que tiene dos propósitos relacionados: descripción e inferencia.
- Las estadísticas descriptivas se pueden utilizar para resumir los datos, ya sea numéricamente o gráficamente, para describir la muestra. Los ejemplos básicos de descriptores numéricos incluyen la media y la desviación estándar. Las resumen gráficas incluyen varios tipos de gráficos y gráficos.
- Las estadísticas inferenciales se utilizan para modelar patrones en los datos, contabilizar la aleatoriedad y dibujar inferencias sobre la población más grande. Estas inferencias pueden tomar la forma de respuestas a preguntas de sí/no (prueba de hipótesis), estimaciones de características numéricas (estimación), pronóstico de observaciones futuras, descripciones de asociación (correlación) o modelado de relaciones (regresión). Otras técnicas de modelado incluyen ANOVA, series de tiempo y minería de datos.
El concepto de correlación es particularmente notable. El análisis estadístico de un conjunto de datos puede revelar que dos variables (es decir, dos propiedades de la población en consideración) tienden a variar juntas, como si estuvieran conectadas. Por ejemplo, un estudio de ingresos anuales y edad de la muerte entre las personas podría encontrar que las personas pobres tienden a tener vidas más cortas que las personas ricas. Se dice que las dos variables están correlacionadas. Sin embargo, uno no puede inferir inmediatamente la existencia de una relación causal entre las dos variables; ver la correlación no implica causalidad.
¿Como el hombre se dio cuenta de la estadística?
Aunque los investigadores alguna vez pensaron que los humanos eran la única especie con una sensación de cantidad, los estudios desde mediados del siglo XX han revelado que muchos animales comparten la capacidad. Por ejemplo, los peces, las abejas y los pollos recién nacidos3 pueden reconocer instantáneamente cantidades hasta cuatro, una habilidad conocida como subitización. Algunos animales también son capaces de «discriminación de gran cantidad»: pueden apreciar la diferencia entre dos grandes cantidades si son lo suficientemente distintas. Las criaturas con esta habilidad podrían, por ejemplo, distinguir 10 objetos de 20 objetos, pero no 20 de 21. Los bebés humanos de seis meses también muestran una apreciación similar de la cantidad, incluso antes de que hayan tenido una exposición significativa a la cultura o el lenguaje humano.
Lo que sugiere todo esto, dice Andreas Nieder, neurocientífico de la Universidad de Tübingen, Alemania, es que los humanos tienen una apreciación innata de los números. Eso surgió a través de procesos evolutivos como la selección natural, dice, porque habría tenido beneficios adaptativos.
Una idea llamada teoría de la participación material sugiere que el concepto mental de los números se extiende a objetos físicos, como los dedos. Credit: Matthew Horwood/Getty
Otros interpretan la evidencia de manera diferente. Rafael Núñez, científico cognitivo de la Universidad de California, San Diego, y uno de los líderes de Quanta, acepta que muchos animales podrían tener una apreciación innata de la cantidad. Sin embargo, argumenta que la percepción humana de los números suele ser mucho más sofisticada y no puede haber surgido a través de un proceso como la selección natural. En cambio, muchos aspectos de los números, como las palabras habladas y los signos escritos que se utilizan para representarlos, deben ser producidos por la evolución cultural, un proceso en el que los individuos aprenden a través de la imitación o la enseñanza formal para adoptar una nueva habilidad (como cómo cómo usa una herramienta).
¿Dónde nació la estadística moderna?
W. Edwards Deming: Deming fue pionero del control de calidad y mejor conocido por su trabajo en Japón después de la Segunda Guerra Mundial. Fue profesor de estadísticas en varias universidades y dio seminarios sobre control de calidad, muestreo y productividad a los principales ejecutivos industriales de todo el mundo.
Florence Nightingale: Nightingale fue miembro de la Royal Statistical Society y una de las primeras personas en recopilar estadísticas sobre políticas de salud. Ella también fue pionera para mujeres estadísticas. Su trabajo condujo a reformas de políticas de salud en Gran Bretaña del siglo XIX y salvó la vida de innumerables soldados británicos. Vea a continuación para obtener más información sobre Nightingale.
JANET NORWOOD – Norwood fue la primera comisionada de la Oficina de Estadísticas Laborales de los Estados Unidos. Ha realizado importantes contribuciones a las estadísticas gubernamentales, especialmente el índice de precios al consumidor y las estadísticas de desempleo. También se desempeñó como presidenta de la Asociación Estadística Americana en 1989, fue miembro principal del Instituto Urbano y consejera y miembro principal de la Junta de la Conferencia de Nueva York.
JOHN TUKEY – Tukey aplicó estadísticas matemáticas y teóricas a una variedad de disciplinas científicas y de ingeniería. También se le atribuye acuñar el término «bit», una contracción de «dígito binario», que se refiere a una unidad de información procesada por una computadora.
La Asociación Estadística Americana mantiene un sitio web con biografías de estadísticos prominentes de todo el mundo y los Estados Unidos. Vaya a estadísticos en la historia para aprender más sobre los hombres y mujeres que moldearon las ciencias estadísticas de hoy.
¿Cómo surgió la estadística descriptiva?
Los métodos estadísticos que se presentarán en este curso se utilizan en todas las ciencias naturales y sociales. Sin embargo, hay varias razones por las cuales estos métodos ocupan un lugar preponderante en ciertas disciplinas, como la ecología.
Estudiamos sistemas complejos, compuestos por muchos tipos de entidades o individuos que interactúan. Un cambio dado puede causar una cadena de efectos, bucles de retroalimentación, etc. Aislar el efecto de una variable representa un desafío importante.
Los individuos no son idénticos pero varían en varios niveles.
La capacidad de observación del sistema es limitada, tanto para el número de variables medidas, como el número de individuos muestreados, así como por la precisión de las observaciones mismas.
El método científico a menudo se presenta por un diagrama como el siguiente. Basado en observaciones pasadas, los investigadores emiten una hipótesis sobre el funcionamiento de un sistema. A partir de esta hipótesis, hay ciertas predicciones, que se comparan con el resultado de una experiencia diseñada específicamente para probar la hipótesis. El resultado lleva al rechazo de la hipótesis o a su aceptación provisional (hasta que se proponga una hipótesis competitiva sobre la base de nuevas observaciones o resultados de la experiencia).
En realidad, cada estudio científico no sigue todo este esquema. Los diferentes equipos pueden llevar a cabo nuevas observaciones, formular nuevas teorías o hipótesis y experiencias de diseño destinadas a probar estas hipótesis. Para algunos sistemas, no es ético o práctico llevar a cabo experiencias controladas, por lo que las hipótesis deben probarse a partir de las observaciones.
¿Cómo y cuándo surge la estadística?
Esta es una guía sobre las diferentes líneas de estadísticas y parámetros para diferentes caracteres en Tales of Arise. ¡Siga leyendo para saber qué proporciona cada línea a las fortalezas y debilidades de los miembros de su partido, cómo se puede afectar cada uno y qué se puede hacer para aumentar sus valores!
Significa el «poder» de un personaje y está dictado por la cantidad de experiencia que tiene un personaje. Con cada nivel obtenido por un personaje, todas las estadísticas se pueden plantear excepto AG.
Mirar el nivel de un personaje es una buena manera de saber si podrán o no enfrentarse a enemigos que están en niveles altos, similares o más bajos de los que los jugadores del personaje usarán para luchar contra ellos.
La vitalidad de un personaje muestra cuán lejos o cerca están de ser noqueados mientras están en combate. Esto está representado por una barra verde que pierde su longitud cuando un personaje recibe daño: al alcanzar 0, el personaje será noqueado hasta que se revivan durante una pelea o sean revividos por el renacimiento automático del juego una vez que concluya una batalla.
El medidor de Artes es el parámetro que dice cuántos artes puede usar un personaje en la batalla antes de no poder usar ninguno de ellos. Estos se denotan por símbolos de diamantes en la pantalla de estadísticas y diamantes azules justo por encima de la barra HP durante la batalla.
El indicador de Artes se repone con el tiempo, pero su recuperación se ve obstaculizada cada vez que ataca o se ve afectada por dolencias.
El ataque afecta la cantidad de daño que haces con ataques no elementales contra los enemigos. Sin embargo, el desbloqueo de niveles más altos con un personaje aumenta este parámetro, pero no afecta la cantidad de daño que puede causar utilizando los elementos, ni tener un parámetro de ataque más alto causa interrupciones y golpes críticos para ocurrir con mayor frecuencia.
¿Cuál es el origen de la estadistica inferencial?
Se han utilizado formas básicas de estadísticas desde el comienzo de la civilización. Los primeros imperios a menudo recopilaban censos de la población o registraban el comercio de varios productos. La dinastía Han y el Imperio Romano fueron algunos de los primeros estados en recopilar ampliamente datos sobre el tamaño de la población del imperio, el área geográfica y la riqueza.
El uso de métodos estadísticos se remonta al menos al siglo V a. C. El historiador Tucídides en su historia de la Guerra del Peloponeso [2] describe cómo los atenienses calcularon la altura de la pared de la estatura contando el número de ladrillos en una sección sin planear de la pared lo suficientemente cerca de ellos para poder contarlos. El recuento fue repetido varias veces por varios soldados. El valor más frecuente (en la terminología moderna, el modo) así se determinó como el valor más probable del número de ladrillos. Multiplicar este valor por la altura de los ladrillos utilizados en la pared permitió a los atenienses determinar la altura de las escaleras necesarias para escalar las paredes. [Cita necesaria]
El juicio del PYX es una prueba de la pureza de la moneda de la menta real que se ha celebrado regularmente desde el siglo XII. La prueba en sí se basa en métodos de muestreo estadístico. Después de acuñar una serie de monedas, originalmente de diez libras de plata, se colocó una sola moneda en el PYX, una caja en la Abadía de Westminster. Después de un período determinado, ahora una vez al año, las monedas se eliminan y pesan. Luego se prueba una muestra de monedas eliminadas de la caja para determinar la pureza.
¿Quién descubrio la estadística inferencial?
La inferencia estadística a menudo no se replica. Una razón es que se pueden seleccionar muchos resultados para la inferencia de dibujo porque se cruzó cierto umbral de una estadística como el valor p, lo que condujo a tamaños de efecto informados sesgados. No obstante, se espera una considerable no replicación incluso sin informes selectivos, y las generalizaciones de estudios individuales rara vez se justifican. Los resultados informados honestamente deben variar de la replicación a la replicación debido a las violaciones de la suposición variable y la variación aleatoria; El acuerdo excesivo en sí sugeriría problemas más profundos, como el fracaso para publicar resultados en conflicto con las expectativas o deseos grupales. Por lo tanto, una percepción general de una «crisis de replicación» puede reflejar el hecho de no reconocer que las pruebas estadísticas no solo prueban hipótesis, sino innumerables supuestos y todo el entorno en el que tiene lugar la investigación. Debido a todos los supuestos inciertos y desconocidos que sustentan las inferencias estadísticas, debemos tratar las estadísticas inferenciales como descripciones locales altamente inestables de las relaciones entre supuestos y datos, en lugar de proporcionar inferencias generalizables sobre hipótesis o modelos. Y eso significa que debemos tratar los resultados estadísticos como mucho más incompletos e inciertos de lo que actualmente es la norma. Reconocer esta incertidumbre podría ayudar a reducir el atractivo de los informes selectivos: dado que un pequeño valor p podría ser grande en un estudio de replicación, y un valor p grande podría ser pequeño, simplemente no hay necesidad de informar selectivamente estudios basados en resultados estadísticos. En lugar de centrar nuestros informes de estudio sobre conclusiones inciertas, debemos centrarnos en describir con precisión cómo se realizó el estudio, qué problemas ocurrieron, qué datos se obtuvieron, qué métodos de análisis se usaron y por qué y qué salida se produjeron esos métodos.
La «crisis de la investigación no replicable» no se trata solo de supuestas fallas de replicación. También se trata de la no replicación percibida de resultados científicos que se interpretan como un signo de mala ciencia (Baker 2016). Sí, existe una epidemia de interpretación errónea de las estadísticas y lo que equivale a la mala conducta científica, a pesar de que es una práctica común (como los estudios de informes selectivos que «trabajaron» o que fueron «significativos»; Martinson, Anderson y De Vries; John , Loewenstein y Prelec 2012). Pero todos los resultados son inciertos y muy variables, incluso los de los estudios más rigurosos.
Debido a que un pequeño valor p podría resultar solo de una variación aleatoria, Fisher (1937) escribió que «ningún experimento aislado, por significativo por sí mismo, puede ser suficiente para la demostración experimental de cualquier fenómeno natural». Y Boring (1919) dijo hace un siglo: «La generalización científica es una pregunta más amplia que la descripción matemática». Sin embargo, hoy todavía adoctrinamos a los estudiantes con métodos que afirman producir generalizaciones científicas a partir de descripciones matemáticas de estudios aislados. Naturalmente, tales generalizaciones a menudo no estarán de acuerdo con las de otros estudios y, por lo tanto, la inferencia estadística no se replicará. Debido a que nuestro sistema de recompensa académica actual se basa en publicaciones individuales (generalmente informando los resultados de uno o algunos estudios similares), no debería sorprendernos que se publiquen muchas generalizaciones conflictivas y, por lo tanto, que una alta proporción de generalizaciones debe ser incorrecta.
Un problema central es que tanto los científicos como el público confunden las estadísticas con la realidad. Pero la inferencia estadística es un experimento mental, que describe el rendimiento predictivo de los modelos sobre la realidad. Por necesidad, estos modelos están extremadamente simplificados en relación con las complejidades de la conducta real del estudio y de la realidad que se está estudiando. Los resultados estadísticos eventualmente deben engañarnos cuando se usan y comunicados como si presentaran esta realidad compleja, en lugar de un modelo para ello. Este no es un problema de nuestros métodos estadísticos. Es un problema de interpretación y comunicación de resultados.
A continuación, argumentamos que la crisis de la investigación no replicable es principalmente una crisis de exceso de confianza en los resultados estadísticos. Recomendamos que usemos, comunicamos y enseñemos métodos estadísticos inferenciales que describen las relaciones lógicas entre supuestos y datos (como se detalla en el Apéndice), en lugar de proporcionar inferencias generalizables sobre poblaciones universales.
¿Dónde tuvo sus orígenes la estadística?
Las estadísticas son un subconjunto de matemáticas que tratan con la recopilación, análisis y presentación de datos. Esta historia corta tiene como objetivo proporcionar al lector información de fondo sobre el origen de las estadísticas.
La teoría de la probabilidad se ocupa de la predicción de la probabilidad de eventos futuros, mientras que las estadísticas implican el análisis de la frecuencia de los eventos pasados. Por ejemplo, un probabilista supone que cada cara en un dados tiene una probabilidad de que 0,1667 aterrice boca arriba. Luego usa esta información para predecir los próximos resultados. Un estadístico no asume que los dados son justos, sino que usa resultados pasados para sacar conclusiones sobre la probabilidad de un aterrizaje facial boca arriba. En general, se acepta que Kolmogorov sentó las bases de la teoría de la probabilidad. Publicó su artículo Grundbefriffe der Ahrscheinlichkeitsrechnung (1933) en el que introdujo los axiomas de la teoría de la probabilidad. Estos axiomas son acordados por frecuistas y bayesianos. Sin embargo, las estadísticas no se consideran inventadas por una persona o entidad, sino algo que evolucionó a lo largo de los años. Las estadísticas constan de dos ramas principales, estadísticas descriptivas y estadísticas inferenciales. Las estadísticas descriptivas se refieren a resumir y describir datos y estadísticas inferenciales es el proceso de sacar conclusiones basadas en datos. La palabra estadísticas se deriva de la palabra latina «estado» y significa «estado político» o «gobierno».
Hace siglos, la palabra estadísticas se utilizó para referirse a reyes que necesitan información sobre tierra, agricultura, población y sus militares. Sin embargo, la interpretación de la palabra estadísticas ha cambiado muchas veces a lo largo de la historia. En el siglo XVI, Girolamo Cardano calcula las probabilidades de diferentes rollos de dados. En el siglo XVIII, la demostración se dio cuenta de que a medida que aumentaba el número de volteretas de monedas, el PDF binomial se acercaba a una curva muy suave. Demoivre razonó que si podía encontrar una expresión matemática para esta curva, podría resolver problemas como encontrar la probabilidad de 60 o más cabezas de 100 volteos de monedas fácilmente. Esto es exactamente lo que hizo, y la curva que descubrió ahora se llama la curva «normal». Más tarde en 1778, Laplace formuló el teorema del límite central. En 1808, los matemáticos Adrain y Gauss desarrollaron independientemente la fórmula para la distribución normal y se mostraron que muchos fenómenos naturales cumplen con la curva normal.
Artículos Relacionados: