Descargar la presentación
La descarga está en progreso. Por favor, espere
1
Componentes Principales
2
Karl Pearson
3
Objetivo: dada una matriz de datos de dimensiones nxp que representa los valores de p variables en n individuos, investigar si es posible representar los individuos mediante r variables (r<p) con poca (o ninguna si es posible) pérdida de información.
4
Nos gustaría encontrar nuevas variables Z, combinación lineal de las X originales, tales que:
r de ellas contengan toda la información las restantes p-r fuesen irrelevantes
5
Primera interpretación de componentes principales:
Representación gráfica óptima de los datos
6
Proyección de un punto en una dirección: maximizar la
varianza de la proyección equivale a minimizar las distancias ri xi zi xiT xi = riT ri+ zTi zi a
8
Minimizar las distancias a la recta es lo mismo
que maximizar la varianza de los puntos proyectados (estamos suponiendo datos de media cero)
9
Segunda interpretación de componentes: Predicción óptima de los datos
Encontrar una variable zi =a’Xi que sea capaz de prever lo mejor posible el vector de variables Xi en cada individuo. Generalizando, encontrar r variables, zi =Ar Xi , que permitan prever los datos Xi para cada individuo lo mejor posible, en el sentido de los mínimos cuadrados Puede demostrarse que la solución es que zi =a’Xi tenga varianza máxima.
10
Tercera interpretación: Ejes del elipsoide que contiene a la nube de puntos
Recta que minimiza las distancias ortogonales, proporciona los ejes del elipsoide que contiene a la nube de puntos Coincide con la idea de regresión ortogonal de Pearson
14
Ejemplo. Datos de gastos de familias EPF
15
Segundo componente
16
Ejemplo gastos EPF
19
Propiedades de los CP
20
Propiedades Conservan la varianza generalizada
Conservan la varianza efectiva
21
Propiedades La variabilidad explicada es la proporción del valor propio a la suma
22
Propiedades La covarianza entre los componentes y las variables es proporcional al vector propio que define el componente Y como
23
Propiedades Las covarianzas entre los componentes y las
variables son proporcionales al vector propio y el factor de proporcionalidad es el valor propio
24
Propiedades
25
Propiedades
26
CP como predictores óptimos
Queremos prever cada fila de la matriz Mediante un conjunto de variables Con el mínimo error
27
CP como predictores óptimos
Dado el vector a el coeficiente c se obtiene por regresión Con lo que Para obtener a tenemos que minimizar
28
CP como predictores óptimos
29
CP como predictores óptimos
El resultado de la aproximación es
30
CP como predictores óptimos
Y en general, la mejor aproximación de la matriz con otra de Rango r<p es
31
Los CP son los predictores óptimos de las variables originales
La aproximación de CP puede aplicarse a cualquier matriz aunque tengamos más variables que observaciones
32
Propiedades En lugar de trabajar con la matriz de varianzas podemos hacerlo con la de correlaciones Esto equivale a trabajar con variables estandarizadas
33
CP sobre correlaciones
34
Ejemplo Inves
35
Ejemplo Inves
37
Ejemplo Medifis
40
Ejemplo mundodes
41
Ejemplo Mundodes
43
Ejemplos para análisis de imagenes
45
En lugar de tener que transmitir 16 matrices de N2
Pixeles transmitimos un vector 16x3 con los valores de los componentes y una matriz 3xN2 con los vectores propios De esta manera ahorramos: Ahorramos el 70% . Si en lugar de 16 imágenes tenemos 100 el ahorro puede ser del 95%
46
Generalización Buscar direcciones de proyección interesantes desde algun punto de vista. Esta es la idea de Projection Pursuit. Buscar proyecciones que produzcan distribuciones de los datos tan alejadas de la normalidad como sea posible.
Presentaciones similares
© 2024 SlidePlayer.es Inc.
All rights reserved.