Los componentes principales de una colección de puntos en un espacio de coordenadas real son una secuencia de vectores de unidad P { displaystyle p}, donde el vector i { displayStyle i} es la dirección de una línea que mejor se ajusta a los datos mientras se les parece mejor. ortogonal a los primeros vectores i-1 { displaystyle i-1}. Aquí, una línea de mejor ajuste se define como una que minimiza la distancia cuadrada promedio desde los puntos hasta la línea. Estas direcciones constituyen una base ortonormal en la que diferentes dimensiones individuales de los datos no están linealmente sin correlacas. El análisis de componentes principales (PCA) es el proceso de calcular los componentes principales y usarlos para realizar un cambio de base en los datos, a veces utilizando solo los primeros componentes principales e ignorar el resto.
En el análisis de datos, el primer componente principal de un conjunto de variables P { DisplayStyle P}, que se presume que se distribuye normalmente normalmente, es la variable derivada formada como una combinación lineal de las variables originales que explica la mayor varianza. El segundo componente principal explica la mayor varianza en lo que queda una vez que se elimina el efecto del primer componente, y podemos continuar a través de las iteraciones P { DisplayStyle P} hasta que se explique toda la varianza. PCA se usa más comúnmente cuando muchas de las variables están altamente correlacionadas entre sí y es deseable reducir su número a un conjunto independiente.
PCA se usa en el análisis de datos exploratorios y para hacer modelos predictivos. Se usa comúnmente para la reducción de la dimensionalidad al proyectar cada punto de datos solo en los primeros componentes principales para obtener datos de dimensiones inferiores mientras preserva la mayor cantidad posible de la variación de los datos. El primer componente principal puede definirse de manera equivalente como una dirección que maximiza la varianza de los datos proyectados. El componente principal I { DisplayStyle I} -th Bewn se puede tomar como una dirección ortogonal a los primeros componentes principales I-1 { DisplayStyle I-1} que maximiza la varianza de los datos proyectados.
Se puede considerar que PCA se ajusta a un elipsoide p-dimensional a los datos, donde cada eje del elipsoide representa un componente principal. Si algún eje del elipsoide es pequeño, entonces la varianza a lo largo de ese eje también es pequeña.
Para encontrar los ejes del elipsoide, primero debemos centrar los valores de cada variable en el conjunto de datos en 0 restando la media de los valores observados de la variable de cada uno de esos valores. Estos valores transformados se utilizan en lugar de los valores observados originales para cada una de las variables. Luego, calculamos la matriz de covarianza de los datos y calculamos los valores propios y los vectores propios correspondientes de esta matriz de covarianza. Entonces debemos normalizar cada uno de los vectores propios ortogonales para convertirlos en vectores unitarios. Una vez hecho esto, cada uno de los vectores propios de la unidad mutuamente ortogonal puede interpretarse como un eje del elipsoide ajustado a los datos. Esta elección de base transformará la matriz de covarianza en una forma diagonalizada, en la que los elementos diagonales representan la varianza de cada eje. La proporción de la varianza que representa cada vector propio se puede calcular dividiendo el valor propio correspondiente a ese vector propio por la suma de todos los valores propios.
¿Cómo realizar un análisis de componentes principales?
El análisis de componentes principales, o PCA, es un método de reducción de dimensionalidad que a menudo se usa para reducir la dimensionalidad de grandes conjuntos de datos, transformando un gran conjunto de variables en una más pequeña que aún contiene la mayor parte de la información en el conjunto grande.
Reducir el número de variables de un conjunto de datos naturalmente se produce a expensas de la precisión, pero el truco en la reducción de la dimensionalidad es intercambiar un poco de precisión por simplicidad. Debido a que los conjuntos de datos más pequeños son más fáciles de explorar y visualizar y facilitar los datos de los datos mucho más fáciles y rápidos para los algoritmos de aprendizaje automático sin variables extrañas para procesar.
Entonces, para resumir, la idea de PCA es simple: reduzca el número de variables de un conjunto de datos, al tiempo que preserva la mayor cantidad de información posible.
El objetivo de este paso es estandarizar el rango de las variables iniciales continuas para que cada una de ellas contribuya igualmente al análisis.
Más específicamente, la razón por la que es fundamental realizar la estandarización antes de PCA, es que este último es bastante sensible con respecto a las variaciones de las variables iniciales. Es decir, si hay grandes diferencias entre los rangos de las variables iniciales, esas variables con rangos más grandes dominarán sobre aquellos con rangos pequeños (por ejemplo, una variable que rangos entre 0 y 100 dominará sobre una variable que se extiende entre 0 y 1 ), que conducirá a resultados sesgados. Por lo tanto, transformar los datos en escalas comparables puede evitar este problema.
¿Cómo se calculan los componentes principales de una matriz de datos?
Antes de leer este documento, uno debe saber la diferencia entre el portador de datos y la datestructura. AdatacarrierisagraphicalRepresentationationfdatain Una forma legible por máquina, utilizada para permitir la lectura automática de las cadenas de elementos. GS1DATAMATRIXISTHEISO/IMPLICACIÓN ANTERIZADA Y ESTATISTADO DEL USO DE DATA MATRIX. La GS1 DataMatrix se forma agregando FNC1 Codeword en la primera posición de la versión DataMatrix ECC 200.
GS1 DATAMATRIXISCOMPOSEFTWOSEPARATEPARTS (SeeFigureBeLow): TheFinderPatnn, que el escáner utiliza para localizar el símbolo y los datos codificados en sí.
TheFinderPatternDefinestheshape (SquareRectangle), thesize, X-Dimension y NumberOfRows y CHOLURNSTESMBOL.
THESOLIDDARKIscalled el «Patrón de Lfinder» .Isprimamente utilizado, la todetermina, la orientación y la distorsión del símbolo.
Theothertwosides de su patrón de alteración y los darkelements, se conocen a los «Clocktrack» .TisdefinesthebasicStructure de thesymbolandcanalso ayudan a determinar su tamaño y distorsión.
JustLikelineal (1D) BarCodesGS1 DATAMATRIXHASAMANDATORIOQUIETZONE. Esta esalightarea alrededor de este símbolo que segrazca elMustnotContainAnanyGrapheCelement que se realiza la lectura del código de barras. Tiene un ancho constante igual a la dimensión X del símbolo en cada uno de los cuatro lados.
Cada datamatrixsymbolismadeupofnumberOfrows ycolumns. GS1 DataMatrix siempre tiene un número par de personas y cólicas.
¿Cómo se interpreta un análisis de componentes principales?
Paso 3: Para interpretar cada componente, debemos calcular las correlaciones entre los datos originales y cada componente principal.
Estas correlaciones se obtienen utilizando el procedimiento de correlación. En la declaración variable incluimos los primeros tres componentes principales, «Prin1, Prin2 y Prin3», además de las nueve variables originales. Utilizamos las correlaciones entre los componentes principales y las variables originales para interpretar estos componentes principales.
Debido a la estandarización, todos los componentes principales tendrán media 0. La desviación estándar también se da para cada uno de los componentes y estos son la raíz cuadrada del valor propio.
Las correlaciones entre los componentes principales y las variables originales se copian en la siguiente tabla para el ejemplo nominal de lugares. También observará que si observa los componentes principales en sí, entonces hay cero correlación entre los componentes.
La interpretación de los componentes principales se basa en encontrar qué variables están más fuertemente correlacionadas con cada componente, es decir, cuáles de estos números son grandes en magnitud, el más alejado de cero en cualquier dirección. Los números que consideramos grandes o pequeños, por supuesto, es una decisión subjetiva. Debe determinar en qué nivel la correlación es importante. Aquí se considera importante una correlación por encima de 0.5. Estas correlaciones más grandes están en negrita en la tabla anterior:
Ahora interpretaremos los resultados del componente principal con respecto al valor que hemos considerado significativo.
¿Qué hace un análisis de componentes principales?
El análisis de componentes principales, o PCA, es un procedimiento estadístico que le permite resumir el contenido de información en grandes tablas de datos mediante un conjunto más pequeño de «índices de resumen» que se pueden visualizar y analizar más fácilmente. Los datos subyacentes pueden ser mediciones que describen propiedades de muestras de producción, compuestos químicos o reacciones, puntos de tiempo de proceso de un proceso continuo, lotes de un proceso por lotes, individuos biológicos o ensayos de un DOE-protocolo, por ejemplo.
El uso de PCA puede ayudar a identificar correlaciones entre los puntos de datos, como si existe una correlación entre el consumo de alimentos como el pescado congelado y el pan nítido en los países nórdicos.
El análisis de componentes principales de hoy es una de las técnicas estadísticas multivariadas más populares. Se ha utilizado ampliamente en las áreas de reconocimiento de patrones y procesamiento de señales y es un método estadístico bajo el amplio título de análisis factorial.
PCA forma la base del análisis de datos multivariados basados en métodos de proyección. El uso más importante de PCA es representar una tabla de datos multivariada como un conjunto más pequeño de variables (índices de resumen) para observar tendencias, saltos, grupos y valores atípicos. Esta descripción general puede descubrir las relaciones entre observaciones y variables, y entre las variables.
PCA se remonta a Cauchy, pero fue formulado por primera vez en estadísticas por Pearson, quien describió el análisis como encontrar «líneas y planos de ajuste más cercano a los sistemas de puntos en el espacio» [Jackson, 1991].
¿Cómo se interpreta la matriz de componente rotado?
La tabla de matriz de factor rotada nos dice cómo se ven las cargas de factores después de la rotación (en este caso varimax). La normalización de Kaiser es un método para obtener la estabilidad de las soluciones entre las muestras. Después de la rotación, las cargas se vuelven a ver al tamaño adecuado. Esto significa que se da igual peso a todos los elementos al realizar la rotación. El único inconveniente es que si la comunalidad es baja para un elemento en particular, la normalización de Kaiser ponderará estos elementos por igual con elementos con alta comunalidad. Como tal, se prefiere la normalización de Kaiser cuando las comunalidades son altas en todos los elementos. Puede desactivar la normalización de Kaiser especificando
/Criterio Nokaiser
Así es como se ven las cargas rotadas Varimax sin la normalización de Kaiser. En comparación con la matriz de factor rotada con la normalización de Kaiser, los patrones se ven similares si se voltea los factores 1 y 2; Este puede ser un artefacto de la reescalado. La mayor diferencia entre las dos soluciones es para elementos con bajas comunalidades como el ítem 2 (0.052) y el ítem 8 (0.236). La normalización de Kaiser pesa estos elementos por igual con los otros elementos de alta comunalidad.
Tanto en las matrices de factor rotadas normalizadas y no kaiser normalizadas, las cargas que tienen una magnitud mayor que 0.4 están en negrita. Podemos ver que los elementos 6 y 7 se cargan altamente en el factor 1 y los elementos 1, 3, 4, 5 y 8 se cargan altamente en el factor 2. El elemento 2 no parece cargarse altamente en ningún factor. Mirando más de cerca el elemento 6 «Mis amigos son mejores en las estadísticas que yo» y el ítem 7 «Las computadoras son útiles solo para jugar», no vemos una construcción clara que define las dos. El artículo 2, «No entiendo las estadísticas» puede ser un elemento demasiado general y no es capturado por la ansiedad SPSS. La siguiente figura muestra el diagrama de ruta de la rotación Varimax. Comparando esta solución con la solución no enratada, notamos que hay altas cargas en el factor 1 y 2. Esto se debe a que Varimax maximiza la suma de las variaciones de las cargas al cuadrado, que en efecto maximiza las altas cargas y minimiza las bajas cargas.
¿Qué es la matriz de componentes?
Tenga en cuenta que todas estas variables se relacionan con el encuestado que recibe información clara. Por lo tanto, interpretamos el componente 1 como «claridad de información». Este es el rasgo subyacente medido por V17, V16, V13, V2 y V9.
Después de interpretar todos los componentes de manera similar, llegamos a las siguientes descripciones:
- Componente 1 – «Claridad de información»
- Componente 2 – «Decencia e idoneidad»
- Componente 3 – «Persona de contacto de ayuda»
- Componente 4 – «Confiabilidad de los acuerdos»
Estableceremos estas como etiquetas variables después de agregar los puntajes de los factores a nuestros datos.
Es bastante común agregar los puntajes del factor real a sus datos. A menudo se usan como predictores en el análisis de regresión o los impulsores en el análisis de clúster. El factor SPSS puede agregar puntajes de factor a sus datos, pero esta es a menudo una mala idea por 2 razones:
- Componente 1 – «Claridad de información»
- Componente 2 – «Decencia e idoneidad»
- Componente 3 – «Persona de contacto de ayuda»
- Componente 4 – «Confiabilidad de los acuerdos»
En muchos casos, una mejor idea es calcular los puntajes de los factores como medias sobre variables que miden factores similares. Tales medios tienden a correlacionarse casi perfectamente con los puntajes de los factores «reales», pero no sufren los problemas antes mencionados. Tenga en cuenta que solo debe calcular medios sobre variables que tienen escalas de medición idénticas.
¿Qué es la matriz de componentes rotados?
La matriz de componentes rotados contiene las correlaciones de Pearson entre elementos y componentes o «factores». Estos se conocen como cargas de factores y nos permiten interpretar qué rasgos pueden reflejar nuestros componentes.
- El componente 1 se correlaciona fuertemente con CAR02, CAR05,…, CAR06. Si inspeccionamos las etiquetas variables de estas variables, vemos que los elementos del «automóvil» se relacionan con las ambiciones profesionales. Por lo tanto, el componente 1 parece reflejar algún tipo de rasgo de ambición profesional.
- El componente 2 se correlaciona principalmente con los elementos «Succ». Sus etiquetas variables nos dicen que estos elementos se relacionan con la éxito.
- En una vena similar, el componente 3 se correlaciona más con los elementos de confianza en uno mismo Conf01 a Conf05.
- El componente 4 parece medir la dureza.
- El componente 5 puede reflejar un rasgo de competitividad.
- El componente 6 se correlaciona algo positivamente con 2 elementos de dureza, pero algo negativamente con un elemento de éxito y confianza. Como ninguna de estas cargas es muy fuerte, el componente 6 no es fácilmente interpretable.
Estos resultados sugieren que quizás solo los componentes 1-5 reflejan rasgos subyacentes reales. Ahora, la tabla que acabamos de inspeccionar muestra las cargas de factores después de una rotación Varimax de nuestros 6 componentes (o «factores»).
Muy básicamente,
Una rotación de factores es un procedimiento matemático que
redistribuye las cargas de factores sobre factores.
La razón para hacer esto es que esto hace que nuestros factores sean más fáciles de interpretar: la rotación generalmente hace que cada elemento se cargue con precisión en un factor. Hay diferentes métodos de rotación de factores, pero todos se dividen en 2 tipos básicos:
- El componente 1 se correlaciona fuertemente con CAR02, CAR05,…, CAR06. Si inspeccionamos las etiquetas variables de estas variables, vemos que los elementos del «automóvil» se relacionan con las ambiciones profesionales. Por lo tanto, el componente 1 parece reflejar algún tipo de rasgo de ambición profesional.
- El componente 2 se correlaciona principalmente con los elementos «Succ». Sus etiquetas variables nos dicen que estos elementos se relacionan con la éxito.
- En una vena similar, el componente 3 se correlaciona más con los elementos de confianza en uno mismo Conf01 a Conf05.
- El componente 4 parece medir la dureza.
- El componente 5 puede reflejar un rasgo de competitividad.
- El componente 6 se correlaciona algo positivamente con 2 elementos de dureza, pero algo negativamente con un elemento de éxito y confianza. Como ninguna de estas cargas es muy fuerte, el componente 6 no es fácilmente interpretable.
Ahora, la rotación de factores también redistribuye los porcentajes de varianza explicados por diferentes factores. Los nuevos porcentajes se muestran a continuación bajo sumas de rotación de cargas cuadradas.
¿Cuándo utilizar componentes principales?
Tal vez se pregunte, ¿por qué tengo que perder mi tiempo creando toneladas de componentes que se utilizarán en un proyecto en lugar de simplemente crear un elemento y copiar durante todo el proceso de diseño? Estos son los beneficios que más sentí como diseñador de UI:
Confía en mí, vas a cambiar la forma en que tus componentes más de una vez. Si decidimos no crear un elemento recurrente como componente, entonces vamos a perder mucho tiempo reemplazándolos en cada pantalla uno por uno. En Figma, podemos cambiar el elemento automáticamente después de haber cambiado nuestro componente y publicarlo.
Reemplazar un elemento uno por uno en cada pantalla es propenso a la inconsistencia y no se recomienda. Reemplazarlo manualmente puede dar lugar a diferentes posicionamiento del elemento. Al reemplazarlo automáticamente, no nos encontraremos con ninguno de este problema
El proceso de crear un componente es el mismo que crear un elemento desde cero. Esta vez, voy a crear un componente de botón UI como ejemplo.
Imagine el marco como un lienzo en blanco que puede alterar para ser cualquier componente que desee.
Determine la dimensión del componente que va a crear. Aquí, estoy creando un botón para un dispositivo móvil. Esbozé el marco para que pudiera ser visible en esta página.
Después de haber creado su marco, puede editarlo como desee. Aquí hay algunas acciones que podría considerar hacer:
- Determine la forma en que se vería su componente en términos de color: determinar el color del componente no tiene que ser solo el color principal del componente. También debe considerar el accidente cerebrovascular y los efectos que debe tener el componente. Mi botón no tiene un golpe y no tiene ningún efecto también, ya que este es un botón principal.
¿Quién desarrollo la propuesta del análisis de componentes principales?
El contexto estándar para PCA como herramienta de análisis de datos exploratorios implica un conjunto de datos con observaciones sobre variables pnuméricas, para cada una de las entidades o individuos. Estos valores de datos definen los vectores pn-dimensionales X1,…, XP o, de manera equivalente, una matriz de datos N × P X, cuya columna JTH es el Vector XJ de observaciones en la variable JTH. Buscamos una combinación lineal de las columnas de la matriz X con la máxima varianza. Dichas combinaciones lineales son dadas por, donde A es un vector de constantes a1, a2,…, ap. La varianza de cualquier combinación lineal viene dada por var (xa) = a′sa, donde s es la matriz de covarianza de muestra asociada con el conjunto de datos y ‘denota transposición. Por lo tanto, identificar la combinación lineal con la varianza máxima es equivalente a obtener un vector p-dimensional A que maximiza la forma cuadrática A′SA. Para que este problema tenga una solución bien definida, se debe imponer una restricción adicional y la restricción más común implica trabajar con vectores de norma unitaria, es decir, que requiere A′A = 1. El problema es equivalente a maximizar A′SA – λ (A′A – 1), donde λ es un multiplicador de LaGrange. Diferenciar con respecto al vector A, y igualar al vector nulo, produce la ecuación
Cualquier matriz simétrica real P × P, como una matriz de covarianza, tiene exactamente valores propios de P, λk (k = 1,…, p), y sus correspondientes vectores propios pueden definirse para formar un conjunto ortonormal de vectores, es decir, a » kak ′ = 1 si k = k ′ y cero de lo contrario. También se puede utilizar un enfoque de multiplicadores Lagrange, con las restricciones adicionales de la ortogonalidad de diferentes vectores de coeficientes, para mostrar que el conjunto completo de vectores propios de S son las soluciones al problema de obtener hasta P nuevas combinaciones lineales, que maximizan sucesivamente la varianza, Sujeto a la incorrecta con combinaciones lineales anteriores [4]. La incomelación resulta del hecho de que la covarianza entre dos de estas combinaciones lineales, XAK y XAK ‘, es dada por A′K′SAK = λKa′K′AK = 0 si K ′ ≠ K.
Son estas combinaciones lineales XAK las que se denominan componentes principales del conjunto de datos, aunque algunos autores también usan confusamente el término «componentes principales» cuando se refieren a los vectores propios AK. En la terminología PCA estándar, los elementos de los vectores propios AK se denominan comúnmente cargas de PC, mientras que los elementos de las combinaciones lineales XAK se denominan puntajes de PC, ya que son los valores que cada individuo anotaría en una PC dada.
Es común, en el enfoque estándar, definir las PC como las combinaciones lineales de las variables centradas x*J, con elemento genérico, donde denota el valor medio de las observaciones sobre la variable j. Esta convención no cambia la solución (aparte del centrado), ya que la matriz de covarianza de un conjunto de variables centradas o no centradas es la misma, pero tiene la ventaja de proporcionar una conexión directa a un enfoque alternativo y más geométrico para PCA.
Denotando por x* la matriz n × p cuyas columnas son las variables centradas x* j, tenemos
¿Qué hace el análisis de componentes principales?
Las técnicas de aprendizaje automático necesitan grandes volúmenes de datos para crear modelos eficientes de calidad. Sin embargo, a menudo, los conjuntos de datos de capacitación contienen muchos datos o datos irrelevantes que proporcionan poca información. Los algoritmos de selección de características analizan los datos de entrada, los clasifican en diferentes subconjuntos y definen una métrica que se puede utilizar para evaluar la relevancia de la información proporcionada por cada uno de ellos. Luego, descartarán el conjunto de datos de trabajo de esas características o campos que contribuyen con menos información, lo que les permite guardar el almacenamiento de datos y el tiempo de ejecución que conduce a un modelo más eficiente.
El análisis de los componentes principales (análisis de componentes principales o PCA) es uno de los algoritmos de selección de características más comunes.
Consiste en una técnica de selección de características específica que utiliza una transformación ortogonal para convertir un conjunto de observaciones de variables, posiblemente correlacionadas, en un conjunto más pequeño de variables que ya no están correlacionadas; conocido como componentes principales.
La pregunta principal que nos ayuda a comprender este método es «¿Cuántos parámetros del conjunto de datos son necesarios para explicar una variación significativa?» Es decir, es evidente, al descartar parámetros o variables, que siempre se pierda alguna información. El problema es evaluar cuánta información podemos permitir que «logre» descartando ciertos parámetros para obtener un modelo más rápido y más eficiente.
¿Qué es PCA en machine learning?
Obtengamos una mejor comprensión de PCA antes de profundizar en su funcionamiento interno. Imagine que tenemos un conjunto de datos bidimensional. Cada dimensión se puede representar como una columna de características:
Podemos representar el mismo conjunto de datos que un plan de dispersión:
El objetivo principal de PCA es encontrar tales componentes principales, que pueden describir los puntos de datos con un conjunto de… bueno, componentes principales.
Los componentes principales son los vectores, pero no se eligen al azar. El primer componente principal se calcula para que explique la mayor cantidad de varianza en las características originales. El segundo componente es ortogonal al primero, y explica la mayor cantidad de varianza que queda después del primer componente principal.
Los datos originales se pueden representar como vectores de características. PCA nos permite ir un paso más allá y representar los datos como combinaciones lineales de los componentes principales. Obtener componentes principales es equivalente a una transformación lineal de los datos del eje Feature1 X característica2 a un eje PCA1 X PCA2.
En el pequeño ejemplo bidimensional anterior, no ganamos mucho mediante el uso de PCA, ya que un vector de características de la forma (Feature1, Feature2) será muy similar a un vector de la forma (primer componente principal (PCA1), segundo principal componente (PCA2)). Pero en conjuntos de datos muy grandes (donde el número de dimensiones puede superar las 100 variables diferentes), los componentes principales eliminan el ruido al reducir una gran cantidad de características a solo un par de componentes principales. Los componentes principales son las proyecciones ortogonales de los datos en el espacio de la dimensión inferior.
Artículos Relacionados:
