Para comprender qué es un modelo de aprendizaje automático probabilístico, consideremos un problema de clasificación con las clases N. Si el modelo de clasificación (clasificador) es probabilístico, para una entrada dada, proporcionará probabilidades para cada clase (de las clases n) como salida. En otras palabras, un clasificador probabilístico proporcionará una distribución de probabilidad en las clases N. Por lo general, la clase con la mayor probabilidad se selecciona como la clase para la que pertenece la instancia de datos de entrada.
Sin embargo, la regresión logística (que es una técnica de clasificación binaria probabilística basada en la función sigmoidea) puede considerarse como una excepción, ya que proporciona la probabilidad en relación con una sola clase (generalmente clase 1, y no es necesario tener «1 1 – probabilidad de clase1 = probabilidad de la relación de clase 0 «). Debido a estas propiedades, la regresión logística también es útil en problemas de clasificación de etiquetas múltiples, donde un solo punto de datos puede tener varias etiquetas de clase.
Si el modelo no es probabilístico (determinista), generalmente generará solo la clase más probable a la que pertenece la instancia de datos de entrada. Vanilla «Máquinas de vectores de soporte» es un popular clasificador no probabilístico.
Discutamos un ejemplo para comprender mejor los clasificadores probabilísticos. Tome la tarea de clasificar una imagen de un animal en cinco clases: {perro, gato, ciervo, león, conejo} como el problema. Como entrada, tenemos una imagen (de un perro). Para este ejemplo, consideremos que el clasificador funciona bien y proporciona resultados correctos/ aceptables para la entrada particular que estamos discutiendo. Cuando la imagen se proporciona como la entrada al clasificador probabilístico, proporcionará una salida como (perro (0.6), gato (0.2), ciervo (0.1), león (0.04), conejo (0.06)). Pero, si el clasificador no es probabilístico, solo generará «perro».
Una de las principales ventajas de los modelos probabilísticos es que proporcionan una idea sobre la incertidumbre asociada con las predicciones. En otras palabras, podemos tener una idea de cuán seguro está un modelo de aprendizaje automático en su predicción. Si consideramos el ejemplo anterior, si el clasificador probabilístico asigna una probabilidad de 0.9 para la clase de «perro» en lugar de 0.6, significa que el clasificador confía más en que el animal en la imagen es un perro. Estos conceptos relacionados con la incertidumbre y la confianza son extremadamente útiles cuando se trata de aplicaciones críticas de aprendizaje automático, como el diagnóstico de enfermedades y la conducción autónoma. Además, los resultados probabilísticos serían útiles para numerosas técnicas relacionadas con el aprendizaje automático, como el aprendizaje activo.
¿Cuáles son los modelos Probabilisticos discretos?
Introducción:
En el capítulo 5, miraste el
Probabilidades de eventos específicos. En este capítulo, tomarás
una visión más global y ver las probabilidades de todas las posibles
Resultados de un juicio dado.
Si los resultados de eso
El procedimiento depende del azar, total o en parte, tiene un
variable aleatoria.
Cada resultado del procedimiento es un valor de la variable.
Usamos una letra mayúscula como X para un
variable y una letra de caso inferior como x para cada valor del
variable.
Como aprendiste en el capítulo 1,
Las variables numéricas pueden ser discretas o continuas.
Una variable aleatoria discreta solo puede tener específica
valores, típicamente números enteros. A
La variable aleatoria continua puede tener infinitamente muchos valores, ya sea
en todos los números reales o dentro de algún intervalo.
En este capítulo, se preocupará por discretos
variables aleatorias. En el próximo capítulo, mirarás uno
particular tipo de variable aleatoria continua, la normal
distribución.
Ejemplo 1:
Rodas tres dados. El número de seises
que aparece es una variable aleatoria y el número total de puntos en el
Las caras superiores es otra variable aleatoria. Ambos son discretos.
Ejemplo 2:
Selecciona aleatoriamente un hogar y solicita ingresos familiares para
el año pasado. Esta es una variable aleatoria continua.
Ejemplo 3:
Selecciona al azar doce estudiantes TC3, mide sus alturas,
y tomar el promedio. «Altura de un estudiante» es un continuo
variable aleatoria y «altura promedio en una muestra de 12 estudiantes» es
Otra variable aleatoria continua.
¿Cuántos modelos probabilísticos hay?
La teoría de la probabilidad se ocupa del estudio de fenómenos aleatorios. Cuando no podemos dar una caracterización exacta del fenómeno y debemos dar una descripción global del fenómeno en sí, utilizamos la probabilidad.
Todos los experimentos para los que es difícil o imposible proporcionar exactamente el resultado, pero presentan alguna forma de regularidad son aleatorios. El comportamiento de los fenómenos aleatorios solo se puede describir a través de cantidades globales y/o medianas.
No solo estamos interesados en el caso en el que es imposible, sino que también es muy difícil, tanto que hace que la descripción sea irrealizable.
Pensando en la definición de probabilidad, los valores promedio pueden ser los momentos y regularidades del primer o segundo orden. Solo para dar un ejemplo, es difícil predecir exactamente el resultado de cada lanzamiento de dados, pero si la nuez no está inventada, puedo decir que cada cara tiene la misma probabilidad de salir. Puedo predecir el valor promedio del resultado y las estadísticas conectadas.
La teoría de la probabilidad se ocupa de la construcción de modelos probabilísticos (matemáticos) que describen los fenómenos aleatorios. Las estadísticas, por otro lado, se ocupan de la verificación de la adherencia de un modelo con respecto a los datos experimentales.
Por parte de la teoría de la probabilidad, podemos decir cuál es la función de densidad de densidad de la tuerca. Las estadísticas se refieren a decir si, dada una nuez, esto se adhiere al modelo de teoría de probabilidad o si esto se compone.
Las áreas en las que se usa la teoría de la probabilidad son muchas, por ejemplo:
- teoría de la cola;
¿Cuántos tipos de distribución discreta existen y cuáles son?
La inferencia estadística requiere suposiciones sobre la distribución de probabilidad (es decir, mecanismo aleatorio, modelo de muestreo) que generaron los datos. Por ejemplo, para una prueba t, suponemos que la media de la muestra sigue una distribución normal. En esta sección se introducen algunas distribuciones comunes utilizadas para datos discretos.
Recuerde, una variable aleatoria es el resultado de un experimento (es decir, un proceso aleatorio) expresado como un número. Tendemos a usar letras mayúsculas cerca del final del alfabeto (x, y, z, etc.) para denotar variables aleatorias. Las variables aleatorias son de dos tipos: discretas y continuas. Aquí estamos interesados en distribuciones de variables aleatorias discretas.
Aquí hay algunas distribuciones que puede encontrar al analizar datos discretos.
Supongamos que un experimento tiene solo dos resultados posibles, «éxito» y «falla», y deje que ( pi ) sea la probabilidad de un éxito. Si dejamos que X denote el número de éxitos (cero o uno), entonces X será Bernoulli. La media (o valor esperado) de una variable aleatoria de Bernoulli es
Tenga en cuenta que X no tendrá una distribución binomial exacta si la probabilidad de éxito ( pi ) no es constante de prueba a prueba o si los ensayos no son independientes (es decir, el resultado en un ensayo altera la probabilidad de un resultado en otra prueba). Sin embargo, la distribución binomial aún puede servir como una aproximación efectiva si estas violaciones son insignificantes.
Por ejemplo, considere probar 20 usuarios de teléfonos inteligentes en los EE. UU. Y grabar x = el número que usa Android. Si el porcentaje nacional de usuarios de Android es ( pi ), entonces X es aproximadamente binomial con 20 pruebas y probabilidad de éxito ( pi ), aunque técnicamente ( pi ) cambiaría ligeramente cada vez que un usuario es retirado de la población para el muestreo. Mientras la población (todos los usuarios de teléfonos inteligentes de EE. UU.) Sea grande en relación con la muestra, este problema es insignificante. Sin embargo, si este no es el caso, entonces debemos tener en cuenta esto, que es lo que hace la distribución hipergeométrica.
¿Qué es un modelo probabilístico y Deterministico?
En el primer mundo digital actual, los especialistas en marketing necesitan formas de interactuar con los clientes en múltiples puntos de contacto del viaje del cliente. Pero los viajes de los clientes ahora son más complejos que nunca: la mayoría de los compradores siguen un camino en zigzagueo a través de una gran cantidad de puntos de contacto, tanto en línea como fuera de línea, y no siempre están conectados a cada dispositivo que usan. Esto hace que sea más difícil identificar a los clientes y construir perfiles de clientes que entreguen las experiencias personalizadas que han llegado a esperar.
Hay dos modelos de resolución de identidad primarios utilizados para cerrar esta brecha de identidad: modelado de datos probabilísticos y coincidencia de datos deterministas. Cada uno tiene un propósito diferente, por lo que es importante comprender cómo se usan y la información que ofrecen.
En esta publicación de blog, comparamos datos probabilísticos VS deterministas para ayudarlo a elegir un modelo que se ajuste a sus necesidades comerciales.
Los datos probabilísticos son datos basados en eventos de comportamiento como vistas de página, tiempo dedicado a la página o clics. Estos datos se analizan y se agrupan por la probabilidad de que un usuario pertenezca a un cierto estado o clase socioeconómica demográfica.
Para generar datos probabilísticos, los algoritmos identificarán patrones de comportamiento predefinidos, como intereses o comportamientos de navegación para determinar la probabilidad de la edad, el género o el estado socioeconómico del usuario. Los patrones de comportamiento podrían ser tan generales como agrupar a los usuarios de acuerdo con los tipos de medios que tienen más probabilidades de consumir, o podrían ser más precisos y audiencias grupales por el tipo de dispositivo que es más probable que usen para acceder a un punto de contacto.
¿Qué es el modelo probabilistico?
Si un usuario hace una solicitud, en un motor de búsqueda, con el chat de la palabra, puede tener varias intenciones. De hecho, ¿tal vez está buscando un documento que se relacione con los gatos (mamíferos) o tal vez quiera aprender más sobre el gato inglés (discusión)? Uno podría pensar que existe una cierta «probabilidad» de que un documento sobre gatos como mamíferos sea relevante para que el usuario haga una solicitud con CAT: digamos que esta probabilidad puede ser del 80 %. La probabilidad de que el usuario quiera saber más sobre la palabra de gato inglesa es probablemente menor, digamos 20 %. Al repetir este tipo de análisis, llegamos a un modelo según el cual, dada una determinada solicitud, cada documento está asociado con una cierta probabilidad de relevancia. El ideal sería presentar, para el usuario, los documentos más «probables» para ser relevantes primero, seguidos de otros [1]. Este enfoque lleva el nombre del principio de clasificación de probabilidad (PRP).
En los modelos probabilísticos, buscando información, estamos tratando de estimar la probabilidad de que un documento $ D_I $ sea relevante (en inglés); Notamos esta probabilidad $ P (RE | D_I) $. La probabilidad de que el documento no sea relevante es $ P (NREL | D_I) $. Por ejemplo, si la solicitud se realiza con el chat de la palabra y que $ d_i $ es un documento sobre gutter gats, podemos tener $ p (re | d_i) = 0.4 $ y $ p (nrel | d_i) = $ 0.6.
¿Cómo calcular $ P (Rel | D_i) $? La verdad es que es un cálculo imposible de hacer, porque nadie sabe realmente la respuesta: ¿cómo, de hecho, mide la relevancia de un documento para un humano? Además, aún se puede usar un modelo.
El modelo más simple, para una solicitud dada, es contar el número de palabras en el documento encontrado. Por ejemplo, si hago una búsqueda con las palabras «cacaouette de pistounette casero» y solo la palabra casa está presente en el documento, podría decir que $ p (re | d_i) = 1/3 $. Esta forma de hacerlo no funciona bien porque un documento que contiene solo el Pistounette (más raro) también se asignará una probabilidad de $ P (RE | D_I) = 1/3 $, mientras esperamos una probabilidad más alta. La palabra casa es un indicador menos bueno de relevancia que la palabra pistounette (que se indica, en ciertos modelos vectoriales, por el coeficiente de IDF) [2].
¿Qué significa modelo Deterministico?
En los modelos deterministas, el medio poroso se modela como un tubo capilar único (Taylor, 1953), un paquete de tubos capilares (Daniel, 1952) y una variedad de células y canales de conexión asociados (Bear y Todd, 1960).
Se deben hacer distinciones importantes entre modelos deterministas y estocásticos (o aleatorios) y también entre formulaciones continuas y discretas.
Los modelos deterministas suponen que las tasas promedio conocidas sin desviaciones aleatorias se aplican a grandes poblaciones. Por ejemplo, si 10,000 individuos tienen un 95% de posibilidades de sobrevivir 1 año, entonces podemos estar razonablemente seguros de que 9500 de ellos sobrevivirán. En los modelos estocásticos, en contraste, existen variaciones aleatorias debido a las incertidumbres en el parámetro o a los tamaños de población pequeños para los cuales puede no ser razonable aplicar tasas promedio. Considere, por ejemplo, una población de 20 centenarios, cada uno con una probabilidad 0.7 de sobrevivir otro año. El número promedio de sobrevivientes será de 20 × 0.7 = 14. Sin embargo, debido al pequeño tamaño de la población, habrá variaciones aleatorias, y sería preferible una descripción probabilística de la población al final del año. En este caso, usaríamos un modelo binomial para describir a la población. El modelo binomial proporciona las probabilidades de tener cero sobrevivientes, un sobreviviente, dos sobrevivientes, etc., hasta 20 sobrevivientes al final del año. En otras palabras, se da una distribución de probabilidad para el número de sobrevivientes, no solo un número promedio.
¿Qué son los modelos Probabilisticos especiales?
La evaluación probabilística de riesgos (o análisis/evaluación de seguridad probabilística) es una metodología sistemática y compleja para evaluar el riesgo asociado con dispositivos tecnológicos complejos (como planos o centrales nucleares).
El riesgo se define como el posible daño de una actividad o acción. En la evaluación de riesgos probabilísticos, se tienen en cuenta dos cantidades:
- la grandeza/gravedad de las posibles consecuencias adversas;
- La probabilidad de la aparición de cada una de estas consecuencias.
Las consecuencias se representan con cantidades numéricas (por ejemplo, el número potencial de personas heridas o muertas) y su probabilidad se representa con índices de probabilidad o frecuencia (por ejemplo, el número de casos o la probabilidad de ocurrencia por unidad de tiempo). El riesgo total es la suma de los efectos de las consecuencias multiplicadas por su probabilidad. La variación del riesgo entre las clases de eventos también se toma en cuenta y generalmente se verifica en el proceso de autorización. Debe tenerse en cuenta si una consecuencia de impacto rara pero de alto parece que parece dominante en el riesgo general.
La evaluación probabilística de riesgos generalmente responde tres preguntas:
- la grandeza/gravedad de las posibles consecuencias adversas;
- La probabilidad de la aparición de cada una de estas consecuencias.
¿Qué son los modelos probabilísticos discretos?
Aquí, distinguiremos entre dos tipos diferentes de espacios de muestra, discretos y continuos. Lo haremos
Discuta la diferencia más en detalle más adelante, cuando discutimos variables aleatorias. La idea básica
es que en modelos de probabilidad discreta podemos calcular la probabilidad de eventos agregando todos los
Resultados correspondientes, mientras que en modelos de probabilidad continua necesitamos usar la integración en lugar de la suma.
Considere un espacio de muestra $ S $. Si $ S $ es un conjunto contable, esto se refiere a una probabilidad discreta
modelo. En este caso, dado que $ S $ es contable, podemos enumerar todos los elementos en $ S $:
$$ S = {S_1, S_2, S_3, cdots }. $$
Si $ a subset s $ es un evento, entonces $ a $ también es contable, y por el tercer axioma de probabilidad podemos escribir
$$ p (a) = p ( bigcup_ {s_j en a} {s_j }) = sum_ {s_j in a} p (s_j). $$
Por lo tanto, en un espacio muestral contable, para encontrar la probabilidad de un evento, todo lo que necesitamos hacer es sumar la probabilidad
de elementos individuales en ese conjunto.
Juego un juego de juego en el que ganaré $ K-2 $ dólares con probabilidad $ frac {1} {2^k} $ por cualquiera
$ k in mathbb {n} $, es decir,
- Con probabilidad $ frac {1} {2} $, pierdo $ 1 $ dólar;
- Con probabilidad $ frac {1} {4} $, gano $ 0 $ dólar;
- Con probabilidad $ frac {1} {8} $, gano $ 1 $ dólar;
- Con probabilidad $ frac {1} {16} $, gano $ 2 $ dólares;
- Con probabilidad $ frac {1} {32} $, gano $ 3 $ dólares;
- $ cdots $
¿Cuál es la probabilidad de ganar más de o igual a $ 1 $ dólar y menos de $ 4 $ dólares? Que es
¿La probabilidad de ganar más de $ 2 $ dólares?
- Con probabilidad $ frac {1} {2} $, pierdo $ 1 $ dólar;
- Con probabilidad $ frac {1} {4} $, gano $ 0 $ dólar;
- Con probabilidad $ frac {1} {8} $, gano $ 1 $ dólar;
- Con probabilidad $ frac {1} {16} $, gano $ 2 $ dólares;
- Con probabilidad $ frac {1} {32} $, gano $ 3 $ dólares;
- $ cdots $
en dólares que gano (pierdo). Así podemos escribir
$$ S = {-1,0,1,2,3,4,5, cdots }. $$
Como vemos, este es un conjunto infinito pero contable. El problema también establece que
$$ p (k) = p ( {k }) = frac {1} {2^{k+2}} textrm {por $ k en s $}. $$
Primero, verifiquemos que esta es una medida de probabilidad válida. Para hacerlo, debemos verificar si todos
Las probabilidades suman uno, es decir, $ P (s) = 1 $. Tenemos
a $ 1 $ dólar y menos de $ 4 $ dólares, y $ B $ como el evento que gano más de $ 2 $ dólares. De este modo,
$$ a = {1,2,3 }, b = {3,4,5, cdots }. $$
Después
Un caso especial importante de modelos de probabilidad discreta es cuando tenemos un espacio de muestra finito $ S $,
donde cada resultado es igualmente probable, es decir,
$$ S = {S_1, S_2, CDOTS, S_N }, TEXTRM {WHERE} P (S_I) = P (S_J) Textrm {para todos} i, j in {1,2, cdots , N }. $$
Rodear un dado justo es una instancia de tal modelo de probabilidad. Dado que todos los resultados son igualmente probables, debemos tener
$$ p (s_i) = frac {1} {n}, textrm {para todos} i in {1,2, cdots, n }. $$
En tal modelo, si $ a $ es algún evento con cardinalidad $ | a | = m $, podemos escribir
$$ p (a) = sum_ {s_j en a} p (s_j) = sum_ {s_j en a} frac {1} {n} = frac {m} {n} = frac {| A |} {| s |}. $$
Por lo tanto, encontrar la probabilidad de $ A $ se reduce a un problema de conteo en el que necesitamos contar cuántos
Los elementos están en $ A $ y $ S $.
¿Qué son los modelos probabilísticos continuos?
Considere un escenario en el que su espacio de muestra $ S $ es, por ejemplo, $ [0,1] $. Este es un conjunto incontable;
No podemos enumerar los elementos en el conjunto. En este momento, aún no hemos desarrollado las herramientas necesarias para
Tratar con modelos de probabilidad continua, pero podemos proporcionar cierta intuición mirando un ejemplo simple.
- Dado que cualquier número real en $ [1,2) $ es un resultado posible, el espacio de muestra es de hecho $ s = [1,2) $.
- Ahora, veamos $ P (1.5) $. Una suposición razonable sería $ P (1.5) = 0 $. Pero podemos proporcionar
¿Una razón para eso? Dividemos el intervalo $ [1,2) $ a $ 2n+1 $ igual y disjunto
intervalos, $ [1,1+ frac {1} {2n+1}), [1+ frac {1} {2n+1}, 1+ frac {2} {2n+1}), cdots , [1+ frac {n} {2n+1}, 1+ frac {n+1} {2n+1}), cdots, [1+ frac {2n} {2n+1}, 2) ps
Ver Figura 1.18. Aquí, $ N $ podría ser cualquier entero positivo.
Fig.1.18 – Dividiendo el intervalo $ [1,2) $ a $ 2n+1 $ intervalos de igual longitud.
La única información que tenemos es que el tiempo de llegada es «uniforme» en
El intervalo $ [1,2) $. Por lo tanto, todos los intervalos anteriores deben tener la misma probabilidad,
y dado que su unión es $ S $ concluimos que
$$ p izquierdo ( big [1,1+ frac {1} {2n+1} big) right) = p left ( big [1+ frac {1} {2n+1}, 1+ frac {2} {2n+1} big) right) = cdots \ $$
$$ cdots = p left ( big [1+ frac {n} {2n+1}, 1+ frac {n+1} {2n+1} big) right) = cdots \ \ $$
$$ cdots = p left ( big [1+ frac {2n} {2n+1}, 2 big) right) = frac {1} {2n+1}. $$
En particular, definiendo $ a_n = izquierda [1+ frac {n} {2n+1}, 1+ frac {n+1} {2n+1} right) $, concluyemos que
$$ p (a_n) = p left ( big [1+ frac {n} {2n+1}, 1+ frac {n+1} {2n+1} big) right) = frac {1} {2n+1}. $$
Ahora tenga en cuenta que para cualquier número entero positivo $ n $, $ 1.5 en A_N $. Por lo tanto, $ {1.5 } subset a_n $, entonces
$$ p (1.5) leq p (a_n) = frac {1} {2n+1}, hspace {20pt} textrm {para todos} n in mathbb {n}. $$
Tenga en cuenta que a medida que $ n $ se vuelve grande, $ p (a_n) $ se acerca $ 0 $. Dado que $ P (1.5) $ no puede ser negativo, concluimos que $ P (1.5) = 0 $.
Del mismo modo, podemos argumentar que $ p (x) = 0 $ por todos $ x en [1,2) $.
- Dado que cualquier número real en $ [1,2) $ es un resultado posible, el espacio de muestra es de hecho $ s = [1,2) $.
- Ahora, veamos $ P (1.5) $. Una suposición razonable sería $ P (1.5) = 0 $. Pero podemos proporcionar
¿Una razón para eso? Dividemos el intervalo $ [1,2) $ a $ 2n+1 $ igual y disjunto
intervalos, $ [1,1+ frac {1} {2n+1}), [1+ frac {1} {2n+1}, 1+ frac {2} {2n+1}), cdots , [1+ frac {n} {2n+1}, 1+ frac {n+1} {2n+1}), cdots, [1+ frac {2n} {2n+1}, 2) ps
Ver Figura 1.18. Aquí, $ N $ podría ser cualquier entero positivo.
Fig.1.18 – Dividiendo el intervalo $ [1,2) $ a $ 2n+1 $ intervalos de igual longitud.
La única información que tenemos es que el tiempo de llegada es «uniforme» en
El intervalo $ [1,2) $. Por lo tanto, todos los intervalos anteriores deben tener la misma probabilidad,
y dado que su unión es $ S $ concluimos que
Su probabilidad debe ser de $ 0.5 $. En otras palabras,
$$ p ([1,1.5)) = P ([1.5,2)) Hspace {20pt} textrm {(por uniformidad),} $$
$$ P ([1,1.5))+P ([1.5,2)) = P (s) = 1. $$
De este modo
$$ p ([1,1.5)) = P ([1.5,2)) = frac {1} {2}. $$
tener la misma probabilidad. En particular, la probabilidad de un intervalo es proporcional a
su longitud. Por ejemplo, ya que
$$ [1,1.5) = [1,1.25) copa [1.25, 1.5). $$
Así, concluimos
El ejemplo anterior fue una situación algo simple en la que tenemos un espacio de muestra continuo. En realidad,
La probabilidad puede no ser uniforme, por lo que necesitamos desarrollar herramientas que nos ayuden a lidiar con General
Distribuciones de probabilidades. Estas herramientas se introducirán en los próximos capítulos.
Discusión: Puede preguntar por qué $ p (x) = 0 $ por todos $ x en [1,2) $, pero al mismo tiempo, el resultado
del experimento siempre es un número en $ [1,2) $? Podemos responder a esta pregunta desde diferentes puntos de vista.
Desde un punto de vista matemático, podemos explicar este problema utilizando la siguiente analogía: considere un
segmento de línea de longitud uno. Este segmento de línea consiste en puntos de longitud cero. Sin embargo, estos
Los puntos de longitud cero en su conjunto constituyen un segmento de línea de longitud uno. Desde un punto de vista práctico,
Podemos proporcionar la siguiente explicación: nuestro resultado observado no son todos valores reales en $ [1,2) $. Que
es, si estamos observando el tiempo, nuestra medición puede ser precisa hasta minutos, segundos o milisegundos,
etc. nuestro modelo de probabilidad continua es un límite de un modelo de probabilidad discreta, cuando la precisión
se vuelve infinitamente preciso. Por lo tanto, en realidad siempre estamos interesados en la probabilidad de algunos intervalos
en lugar de un punto específico $ x $. Por ejemplo, cuando decimos: «¿Cuál es la probabilidad de que muestre tu amigo?
A $ 1: 32 $ p.m.? «, ¿Qué podemos significar es» cuál es la probabilidad de que su amigo aparezca entre $ 1: 32: 00 $ p.m.
¿Y $ 1: 32: 59 $ p.m.? «Esta probabilidad no es cero, ya que se refiere a un intervalo con una longitud de un minuto.
Por lo tanto, en cierto sentido, se puede considerar un modelo de probabilidad continua como el «límite» de un espacio discreto.
Recordando por el cálculo, observamos que las integrales se definen como los límites de las sumas. Por eso usamos
Integrales para encontrar probabilidades para modelos de probabilidad continua, como veremos más adelante.
¿Cuáles son los modelos continuos?
Creo que mi problema no es realmente uno, ya que tengo la impresión de que estos dos términos significan lo mismo:
En la mecánica de fluidos, hablamos de un entorno continuo: se dice que un entorno es continuo si el número de partículas contenidas en un volumen elemental DV es lo suficientemente grande como para descuidar sus fluctuaciones.
¿Son diferentes y continuos los conceptos del modelo continuo y continuo que significan lo mismo o hay diferentes?
¿Podemos aplicar el término modelo continuo a otra circulación que la de un fluido?
Continuamente (en la mecánica de los entornos continuos, los fluidos, por un lado, por el otro), estudiaremos campos, campos de velocidad para fluidos (el punto de vista será fundamentalmente euleriano de la deformación de los campos para sólidos (visión lagrangiana). También podemos hacer electromagnetismo de entornos continuos, ya no tenemos en cuenta el efecto de cada carga en los campos, sino los efectos colectivos (el entorno es más a menudo neutral) en forma dipolar. Estudiamos el electromagnetismo en fluidos y sólidos, podemos adoptar este enfoque aproximadamente cuando podemos tratar estos entornos mediante la mecánica de los entornos continuos).
La pregunta es cuándo puede ir del primero a la segunda.
Tenemos un primer criterio experimental que nos dice que mientras las propiedades de la mecánica de los entornos continuos (o electromagnetismo de entornos continuos) se verifican experimentalmente. También podemos querer un criterio más teórico. En general, será una cuestión de comparar un tamaño característico del sistema discreto (el promedio de viajes libres en un fluido, es decir, la distancia recorrida por una molécula antes de cruzar otra, distancia entre las posiciones de equilibrio de dos átomos para un sólido). Se dirá que un entorno (sea lo que sea, sea cual sea el «dominio» de la física) cuando se verifica la hipótesis anterior.
¿Qué es modelo uniforme continuo?
En estadísticas, la distribución uniforme es un término utilizado para describir una forma de distribución de probabilidad donde cada resultado posible tiene la misma probabilidad de suceder. La probabilidad es constante ya que cada variable tiene las mismas posibilidades de ser el resultado.
- En estadísticas, la distribución uniforme es una distribución de probabilidad donde todos los resultados son igualmente probables.
- Las distribuciones uniformes discretas tienen un número finito de resultados. Una distribución uniforme continua es una distribución estadística con un número infinito de valores medibles igualmente probables.
- Los conceptos de distribución uniforme discreta y distribución uniforme continua, así como las variables aleatorias que describen, son los fundamentos del análisis estadístico y la teoría de la probabilidad.
La distribución uniforme es la distribución estadística más simple. El concepto de distribución uniforme, así como las variables aleatorias que describe, forman la base del análisis estadístico y la teoría de la probabilidad.
Por ejemplo, si te paras en una esquina de la calle y comienzas a entregar aleatoriamente una factura de $ 100 a cualquier persona afortunada que pase, entonces cada transeúnte tendría la misma oportunidad de recibir el dinero. El porcentaje de la probabilidad se divide 1 por el número total de resultados (número de transeúntes). Sin embargo, si favoreciera personas o mujeres cortas, tendrían más posibilidades de recibir el proyecto de ley de $ 100 que los otros pasadores. No se describiría como una probabilidad uniforme.
Artículos Relacionados:
- Modelos predictivos: ejemplos y casos de éxito
- Ejemplos de muestreo probabilístico: cómo seleccionar muestras aleatorias y cómo usarlas para estimar parámetros
- Análisis de modelos probabilísticos especiales: la clave para mejorar los resultados
- Los mejores ejemplos de modelos para tu sitio web
- 2 ejemplos de argumento probabilístico: la lógica de la probabilidad y la estadística