Los mejores métodos para caracterizar tu producto

El método de características es un método que se puede utilizar para resolver el
Problema de valor inicial (IVP) para el primer orden general (solo contiene primer orden
derivados parciales) PDE. Considere el PDE lineal de primer pedido

en dos variables junto con la condición inicial
. El objetivo del método de características, cuando se aplica a
Esta ecuación es cambiar las coordenadas de (x, t) a un nuevo sistema de coordenadas
en el cual
El PDE se convierte en una ecuación diferencial ordinaria (ODE) a lo largo de ciertas curvas en
El plano X-T. Tales curvas,
a lo largo de la cual la solución de la PDE se reduce a un
Oda, se denominan curvas características o solo las características.
La nueva variable variará y la nueva variable
estarán
constante a lo largo de las características. La variable cambiará a lo largo de la inicial
curva en el plano X-T (a lo largo de la línea t = 0). ¿Cómo encontramos la característica?
¿curvas? Observe que si elegimos
(2a) y
(2b) Entonces tenemos

La estrategia general para aplicar el método de características a un PDE de
El formulario (1) es: (Paso 1) Resuelva los dos
Ecuaciones características, (2a) y (2b). Encuentre las constantes de integración estableciendo
(Estos serán puntos a lo largo del eje t = 0 en el plano X-T) y t (0) = 0. Nosotros ahora
tener la transformación de
a
,
y
.
(Paso 2) Resuelva la ODE (3) con la condición inicial
, dónde
son los
puntos iniciales en las curvas características a lo largo del eje t = 0 en el x-t
plano. (Paso 3) Ahora tenemos una solución
. Resolver
para s y
En términos de x y t (utilizando los resultados del paso 1) y sustituya estos valores
dentro
Obtenga la solución al PDE original como
.

Examinaremos el método de características para tres PDE diferentes: el
ecuación de advección del coeficiente constante, la advección del coeficiente variable
ecuación y ecuación de hamburguesas invisibles. Para los tres ejemplos, el inicial
Las condiciones se especifican como
. los
Los ejemplos toman una forma ligeramente más simple que la ecuación general (1). Los tres ejemplos tienen b (x, t) = 1 y c (x, t) = 0. En este caso
La ecuación característica (2b) se convierte en
. La solución es t = s + k.
Usando la condición inicial t (0) = 0, determinamos que la constante es k = 0 y
Tenemos eso s = t. En este caso especial con b (x, t) = 1, solo tenemos uno
ecuación característica para resolver. Antes de proceder a los ejemplos, déjanos
Reafirme la estrategia general en términos de este caso especial de que somos
considerando en los ejemplos.

(Paso 1) Resuelva la ecuación característica (2a), con la condición inicial
.
(Paso 2) Resuelva la oda (3), que en este caso
simplifica
, con
condición inicial
(paso
3) Ahora tenemos una solución
. Resolver
porque en
Términos de x y t (utilizando los resultados del paso 1) y sustituir por
en
Llegar
la solución al PDE original como
.

Nuestro primer ejemplo, la ecuación de advección, es la PDE
(4) Donde A es una verdadera constante. La constante a se refiere
a la velocidad de onda o velocidad de propagación. Esta es la tasa
en el que la solución se propagará a lo largo de las características. La velocidad es
constante, por lo que todos los puntos en el perfil de solución se moverán a la misma velocidad a.

¿Qué son los métodos características?

El método de características es una técnica clásica para resolver problemas que involucran la dinámica de un flujo invisible constante de un fluido compresible supersónico de un fluido compresible, que, en el caso general de un flujo irrotacional plano de un gas ideal, puede describirse mediante un gas no lineal mediante Sistema de dos ecuaciones diferenciales con derivadas parciales del primer orden

Donde U, V son los componentes del vector de velocidad en el plano XY, y Usound es la velocidad del sonido.

En el caso de un flujo supersónico, cuando (U2 + V2)/U2Sound = V2/U2Sound = MA2> 1 (MA es el número de Mach) el sistema de ecuaciones [1] es de un tipo hiperbólico; En el caso de un flujo subsónico cuando Ma <1, es elíptico.

Un rasgo característico de las ecuaciones hiperbólicas es la presencia de superficies características (líneas). Para un sistema de ecuaciones (1) en el caso del flujo supersónico (MA> 1), las líneas características (características) utilizadas en el plano XY son las líneas de Mach, es decir, las líneas que en un punto dado con el vector de velocidad ángulos iguales a los ángulos de Mach para la propagación de perturbación

y el vector de velocidad en sí se dirige a lo largo del bisector del ángulo entre las características. Por lo tanto, las proyecciones del vector de velocidad en una normal a las características en un punto dado son iguales en valor absoluto a una velocidad de sonido local.

es la función prandtl-mayer, γ = cp/cv, θ es el ángulo entre el vector de velocidad
y los ejes x, r y q son los valores (invariantes de Rieman) constantes a lo largo de las características de las primeras y segundas familias, respectivamente,

¿Cuáles son las características de los métodos de investigación?

Está claro que la investigación es un proceso de recopilación, análisis e interpretación de información para responder preguntas. Pero para ser calificado como investigación, el proceso debe presentar ciertas características: en la medida de lo posible, debe ser controlado, riguroso, sistemático, válido y verificable, empírico y crítico.

Examinemos brevemente estas características para comprender lo que significan:

  • Controlado: en la vida real, muchos factores influyen en un resultado. Un evento en particular rara vez es el resultado de una relación de Biunivia. Algunas relaciones son más complejas que otras. La mayoría de los resultados son la consecuencia de interactuar una multiplicidad de relaciones y factores que interactúan. En un estudio de relaciones de causa y efecto, es importante poder conectar los efectos con las causas y viceversa. En el estudio de la causalidad, el establecimiento de este vínculo es esencial; Sin embargo, en la práctica, especialmente en las ciencias sociales, es extremadamente difícil, y a menudo imposible, establecer este vínculo. El concepto de control implica que, durante la exploración de la causalidad en relación con dos variables, el estudio se implementa para minimizar los efectos de otros factores que afectan la relación. Esto es posible en gran medida en las ciencias físicas, ya que la mayoría de las investigaciones se llevan a cabo en un laboratorio. Por otro lado, en las ciencias sociales, es extremadamente difícil porque la investigación se relaciona con las preguntas relacionadas con los seres humanos que viven en la sociedad, donde tales controles son imposibles. Por lo tanto, en las ciencias sociales, como no puede controlar los factores externos, intenta cuantificar su impacto.
  • Rigurado: debe asegurarse cuidadosamente de que los procedimientos seguidos para encontrar respuestas a las preguntas sean relevantes, apropiadas y justificadas. Aquí nuevamente, el grado de rigor varía significativamente entre las ciencias físicas y sociales y dentro de las ciencias sociales.
  • Sistemático: esto implica que los procedimientos adoptados para llevar a cabo una investigación siguen una cierta secuencia lógica. Los diferentes pasos no se pueden tomar al azar, algunos procedimientos deben seguir otros.
  • Válido y verificable: este concepto implica que todo lo que concluye sobre la base de usted es correcto y puede ser verificado por usted y por otros.
  • Empírico: esto significa que todas las conclusiones extraídas se basan en evidencia sólida recopilada de la información extraída de experiencias o observaciones reales.
  • Crítica: examen crítico de los procedimientos utilizados y los métodos utilizados son cruciales para una investigación. El proceso adoptado y los procedimientos utilizados deben poder resistir un examen crítico.

Para que un proceso se llame investigación, es imperativo que presente todas las características de la investigación.

¿Cuáles son las principales características de la investigacion cientifica?

Se sabe que el conocimiento científico es el conocimiento basado en el principio del análisis de hechos reales y científicamente probados. Este conocimiento implica un proceso científico que utiliza métodos y técnicas verificables.

El conocimiento científico presenta ciertas características inherentes al proceso que lleva a su aceptación como tal. Entre estas características, hay aquellos que son los más importantes: empírico, trascendente, analítico, preciso, verificable, accesible a todos, metódico, predictivo, abierto, útil, universal.

El conocimiento científico proviene de fenómenos sensibles, relacionados con un hecho o realidad innegable, objetivo y observable que puede confirmarse mediante verificación. Como resultado, se basa en la experiencia para determinar su veracidad, objetivamente.

El conocimiento científico resulta de un proceso que va más allá de los hechos, es decir, es el resultado de un análisis en profundidad y una verificación constante del objeto de estudio.

El conocimiento científico proviene de un análisis profundo y crítico de que cada elemento es objeto de estudio para una mejor comprensión del fenómeno estudiado.

El conocimiento científico trae elementos de respuestas concretas y claras para evitar ambigüedades o confusión cuando se usa.

El conocimiento científico es verificable porque implica un proceso sujeto a pruebas metódicas para garantizar su objetividad.

¿Cómo se realiza la selección de característica?

Al construir un modelo de aprendizaje automático en la vida real, es casi raro que todas las variables en el conjunto de datos sean útiles para construir un modelo. Agregar variables redundantes reduce la capacidad de generalización del modelo y también puede reducir la precisión general de un clasificador. Además, agregar más y más variables a un modelo aumenta la complejidad general del modelo.

Según la ley de la parsimonia de la «navaja de afeitar de Occam», la mejor explicación de un problema es la que implica la menor cantidad de supuestos posibles. Por lo tanto, la selección de características se convierte en una parte indispensable de la construcción de modelos de aprendizaje automático.

El objetivo de la selección de características en el aprendizaje automático es encontrar el mejor conjunto de características que le permitan construir modelos útiles de fenómenos estudiados.

Las técnicas para la selección de características en el aprendizaje automático se pueden clasificar ampliamente en las siguientes categorías:

Técnicas supervisadas: estas técnicas se pueden usar para datos etiquetados y se utilizan para identificar las características relevantes para aumentar la eficiencia de modelos supervisados ​​como la clasificación y la regresión.

Técnicas no supervisadas: estas técnicas se pueden usar para datos no etiquetados.

Desde un punto de vista taxonómico, estas técnicas se clasifican como:

En este artículo, discutiremos algunas técnicas populares de selección de características en el aprendizaje automático.

Los métodos de filtro eligen las propiedades intrínsecas de las características medidas a través de estadísticas univariadas en lugar del rendimiento de validación cruzada. Estos métodos son más rápidos y menos caros computacionalmente que los métodos de envoltura. Cuando se trata de datos de alta dimensión, es computacionalmente más barato usar métodos de filtro.

¿Qué es selección de características?

Selección, en biología, la supervivencia y reproducción preferencial o la eliminación preferencial de individuos con ciertos genotipos (composiciones genéticas), mediante factores de control natural o artificiales.

La teoría de la evolución por selección natural fue propuesta por Charles Darwin y Alfred Russel Wallace en 1858. Argumentaron que las especies con adaptaciones útiles al medio ambiente tienen más probabilidades de sobrevivir y producir progenie que aquellos con adaptaciones menos útiles, aumentando así la frecuencia con qué adaptaciones útiles ocurren a lo largo de las generaciones. Los recursos limitados disponibles en un entorno promueven la competencia en la que los organismos de la misma o diferente especies luchan por sobrevivir. En la competencia por la comida, el espacio y los compañeros que ocurren, las personas menos bien adaptadas deben morir o no reproducirse, y aquellos que están mejor adaptados sobreviven y se reproducen. En ausencia de competencia entre los organismos, la selección natural puede deberse a factores puramente ambientales, como el clima inclinado o las variaciones estacionales. (Selección natural vista).

La selección artificial (o la cría selectiva) difiere de la selección natural en que las variaciones heredables en una especie son manipuladas por humanos a través de la cría controlada. El criador intenta aislar y propagar aquellos genotipos responsables de las cualidades deseadas de una planta o animal en un entorno adecuado. Estas cualidades son económica o estéticamente deseables para los humanos, en lugar de útiles para el organismo en su entorno natural.

En la selección de masas, se acoplan una serie de personas elegidas sobre la base de la apariencia; Su progenie se seleccionan aún más para las características preferidas, y el proceso continúa durante tantas generaciones como se desee. La elección de la reproducción de stock en función de la capacidad y la calidad de la reproducción ancestral se conoce como selección de pedigrí. La selección de progenie indica la elección de stock de reproducción sobre la base del rendimiento o las pruebas de sus descendientes o descendientes. La selección familiar se refiere al apareamiento de organismos de las mismas acciones ancestrales que no están directamente relacionadas entre sí. La selección de línea pura implica seleccionar y reproducir progenie de organismos superiores para varias generaciones hasta que se haya establecido una línea pura de organismos con solo las características deseadas.

¿Cómo se realiza la selección de variables?

Prácticamente cualquier paquete de software estadístico contiene procedimientos para la selección de variables. Esto hizo que su uso fuera muy popular, particularmente con usuarios finales sin antecedentes formales en estadísticas. Sin embargo, esta amplia disponibilidad ha sido un caldo de cultivo para errores erróneos comunes del papel y la necesidad de selección variable [56]. En seis subsecciones, discutiremos brevemente cuestiones clave de las estrategias de selección de variables tradicionales, los procedimientos de «cambio en la estimación» y las estrategias de selección de variables modernas basadas en la penalización, el impulso y el remuestreo. Se propusieron métodos de contracción para corregir el sesgo de selección, un problema clave causado por el modelado dependiente de datos. Esta sección termina con un breve resumen de la inferencia posterior a la selección. Se discutirán dos ejemplos que ilustran problemas en la sección «Ejemplos que ilustran los problemas».

Los métodos de selección de variables tradicionales implican procedimientos automatizados de construcción de modelos paso a paso que se basan en probar la significación estadística de los coeficientes de regresión para todas las variables consideradas en un paso dado. Un enfoque popular comienza desde un modelo nulo que no contiene variables y agrega una variable a la vez, correspondiente al más significativo (valor de P más bajo) de sus contribuciones para mejorar el ajuste del modelo (selección hacia adelante (FS)). Alternativamente, un «modelo completo» que incluye todas las variables explicativas potenciales se estima primero y luego las variables menos significativas se eliminan uno por uno (eliminación hacia atrás (BE)). El enfoque «paso a paso» implementado en algunos paquetes de software combina la selección hacia adelante con pasos hacia atrás adicionales. El nivel de significancia utilizado como umbral de detención es el parámetro de ajuste que determina el tamaño del modelo final [96]. Cuanto más pequeño sea el nivel, se seleccionarán menos variables.

Los bioestadísticos están ampliamente acuerdan que entre los procedimientos de selección recién descritos, la eliminación hacia atrás, con o sin pasos hacia adelante adicionales, es el método preferible, ya que ya comienza con un modelo plausible [73]. El algoritmo de eliminación hacia atrás establece algunos coeficientes de regresión exactamente a cero contrarios a las estimaciones de máxima verosimilitud reales (no plenalizadas) de los coeficientes de regresión (que generalmente nunca son exactamente cero). Esto significa que uno se aleja intencionalmente de la solución de máxima verosimilitud al inducir el sesgo. Particularmente para los predictores débiles, este sesgo puede disminuir la varianza debido a una contracción implícita hacia cero. Sin embargo, si un predictor débil es «seleccionado» por el algoritmo, su coeficiente de regresión correspondiente puede ser sesgado seriamente lejos de cero [25, 79, 97]. El mayor sesgo generalmente también aumenta el error cuadrático medio (MSE) del valor predicho del resultado, y el elemento aleatorio contribuido por una decisión de selección incierta contribuye aún más a la inflación de MSE. En una revisión reciente, Heinze et al. [56] propuso algunas medidas basadas en el muestreo para estimar el sesgo condicional en la selección y la inflación en (raíz) MSE causada por la selección. Aunque intuitivamente atractivos, sus propuestas aún no se han validado en los estudios de simulación.

La eliminación hacia atrás y otros métodos de selección paso a paso son atajos a la mejor selección de subconjuntos computacionalmente más costosa, donde se estiman todos los modelos posibles y su ajuste se compara utilizando algún criterio de información. Se han propuesto diferentes criterios de información, entre los cuales el criterio de información de Akaike (AIC) es en principio preferible para los modelos predictivos y el criterio de información bayesiana (BIC) de Schwartz para modelos descriptivos [19]. El propósito de AIC es aproximar el rendimiento predictivo, cuantificado por la desviación del modelo, que se esperaría en la validación en una muestra independiente extraída de la misma población. Por el contrario, BIC tiene como objetivo seleccionar las verdaderas variables predictoras [87]. Sin embargo, BIC no puede alcanzar este objetivo a menos que el espacio del modelo buscado incluya el «modelo de generación de datos verdadero» y el conjunto de datos es lo suficientemente grande como para que tal aproximación funcione. Para la comparación de dos modelos jerárquicamente anidados que difieren en un solo término modelo con un grado de libertad (DF), AIC y BIC pueden traducirse directamente a pruebas de significancia de ese término modelo. Para AIC, el valor P del umbral correspondiente es 0.157. Para BIC, el umbral depende del tamaño de la muestra; El parámetro de penalización es log (n) [111]. Por ejemplo, los tamaños de muestra de 100 o 400 corresponden a niveles de significación de 0.032 o 0.014. Por lo tanto, si bien AIC incluirá más y más predictores (débiles) con el aumento del tamaño de la muestra, la selección de BIC se volverá cada vez más estricta. Originalmente, estos criterios se desarrollaron para comparar un pequeño número de modelos preespecificados, no para detectar un gran espacio modelo. Sin embargo, hoy en día, se usan más generalmente como un enfoque pragmático para la selección del modelo.

Artículos Relacionados:

Más posts relacionados:

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *