ESCALAMIENTO MULTIDIMENSIONAL

Slides:



Advertisements
Presentaciones similares
¿ Que es una muestra?.
Advertisements

Análisis de Correspondencia
Data Mining Minería de Datos Universidad Tecnológica Metropolitana
DATA MINING MINERIA DE DATOS Gersom Costas.
Cluster.
Modelos de Variable Dependiente Binaria -Logit y Probit-
Silvana Arias Carla Espinosa Livia Loaiza INGENIERIA EN SISTEMAS
Mapas Autoorganizados
6. Sistemas Autoorganizados
Autora: Carmen Alonso Montes Director: Manuel González Penedo
FRANCISCO JAVIER RODRÍGUEZ
Tema 3 Revisión de diversos métodos robustos aplicados en algunos problemas fotogramétricos.
Prof. Ramón Garduño Juárez Modelado Molecular Diseño de Fármacos
MODELO DE REGRESIÓN MÚLTIPLE
ANALISIS DE CONGLOMERADOS
Reducción de datos Por Elizabeth León.
K-Means Integrantes Natalia Merino (85828) Gastón Sabatelli (85523)
Investigación Operativa
Taller 2. Medición de distancia entre variables y sujetos
RECONOCIMIENTO DE OBJETOS
Clustering (Agrupamiento)
ESTADISTICA PARA RELACIONES LABORALES
FUNDAMENTOS DE DATA MINING Y SUS APLICACIONES N. QUEIPO, S. PINTOS COPYRIGHT 2000 CLASIFICACIÓN NO SUPERVISADA.
Tema 2: Métodos de ajuste
RECONOCIMIETO DE PATRONES
FUNCIONES DE DENSIDAD DE PROBABILIDAD
MÉTODO BOOTSTRAP Considere una muestra aleatoria de tamaño n = 10 con las siguientes observaciones: X1 = -2.41, X2 = 4.86, X3 = 6.06, X4 = 9.11 X5 = 10.2,
Diplomado "Gestión de Negocios con Data Warehouse y Data Mining".
Estadística aplicada al análisis financiero
El Perceptrón Multicapa
ARREGLOS BIDIMENSIONALES
Ejemplo de aplicación de las ANN
1 Problema no separable linealmente Se busca obtener un algoritmo más general que permita integrar el aprendizaje entre las dos capas.
Redes Neuronales Artificiales Autoorganizadas
Tipos de redes neuronales Perceptrón multicapa Redes de respuesta radial Competitivas Clasificación Mapa topológico.
Mt. Martín Moreyra Navarrete.
Sesión 6: Campos de Markov
Vectores Aleatorios 1 Distribución conjunta de un vector aleatorio
Reconocimiento de Patrones
Aplicaciones de las Redes Neuronales Artificilaes Dr. Héctor Allende
ESTADÍSTICA DESCRIPTIVA
Redes Asociativas.
Aprendizaje de Agentes II Alberto Reyes Ballesteros Programa ITESM-IIE Doctorado en Ciencias Computacionales.
Redes Competitivas.
DISTRIBUCION NORMAL Mario Briones L. MV, MSc 2005.
GRÁFICOS ESTADÍSTICOS
REDES NEURONALES.
Redes Neuronales Artificiales
El problema de Cutting Sheets
Escalamiento Multidimensional No-Métrico Capítulo 16 de McCune y Grace 2002.
REDES NEURONALES ARTIFICIALES TEORÍA Y APLICACIONES
Analisis de datos en imagenes hiperespectrales: intro 1 Analisis de datos hiperespectrales: otra revisión Hyperespectral image data analysis, D. Landgrebe,
Sabemos reconocerlas, y calcularlas como soluciones de sistemas de ecuaciones, o de desigualdades Buscamos métodos de cálculo generales y eficientes Problemas.
Aprendizaje No Supervisado y Redes de Kohonen
INTRODUCCIÓN A LA ESTADÍSTICA
Redes Neuronales BPN - Backpropagation Networks
ANALISIS ,GRAFICOS Y MEDIDAS ESTADISTICAS
Algoritmo de Retropropagación. Conclusiones de Retropropagación n 1. Si la neurona j es un nodo de salida es igual al producto de la derivada y la señal.
Métodos Cuantitativos
MOVIMIENTO EN EL PLANO Y EN EL ESPACIO
ANALISIS DE VARIABLES CUANTITATIVAS EN EL PROCESO DE INVESTIGACIÓN
ESTADÍSTICA UNIDIMENSIONAL
Aplicaciones Estadísticas a las Finanzas Clase 1
Ángel Berihuete Francisco Álvarez
Aspectos generales de la investigación educativa en el SNIT
Coeficiente de variación
Estimación Estadística Tares # 3. Estimación Estadística Conjunto de técnicas que permiten dar un valor aproximado de un parámetro de una población a.
REDES NEURONALES ARTIFICIALES (SOM - Kohonen)
PRECISION DE LOS SISTEMAS DE MEDICION EN EL ESTADO ESTABLE 1.ERROR DE MEDICION DE UN SISTEMA DE ELEMENTOS IDEALES En la figura No. 12, se observa n elementos.
Unsupervised visual learning of three-dimensional objects using a modular network architecture Ando, Suzuki, Fujita Neural Networks 12 (1999)
Transcripción de la presentación:

ESCALAMIENTO MULTIDIMENSIONAL REDUCCIÓN DE LA DIMENSIONALIDAD ESCALAMIENTO MULTIDIMENSIONAL lzerpa: OCULTA OBJETIVO: DADO UN CONJUNTO DE OBJETOS {a, b, c, d, .....} CUYA RELACIÓN ESTÁ DADA, SOLAMENTE, POR UNA MATRIZ DE DISTANCIAS; CONSTRUIR, EN UN ESPACIO EUCLIDIO, UN CONJUNTO ASOCIADO {a,’ b’, c’, d’,...} DE MODO QUE LAS DISTANCIAS ENTRE ESTOS NUEVOS ELEMENTOS PRESERVEN, EN LO POSIBLE, LAS DISTANCIAS ORIGINALES

APLICACIÓN PREPONDERANTE REDUCCIÓN DE LA DIMENSIONALIDAD ORIGEN * TORGERSON (1952) * KRUSKAL(1964) * SAMMON (1969) APLICACIÓN PREPONDERANTE * CIENCIAS DEL COMPORTAMIENTO * CIENCIAS SOCIALES * ECONOMETRÍA lzerpa: OCULTA

RELACIÓN CON COMPONENTES PRINCIPALES REDUCCIÓN DE LA DIMENSIONALIDAD RELACIÓN CON COMPONENTES PRINCIPALES lzerpa: OCULTA ESTOS MÉTODOS TIENEN UN ÁREA DE APLICACIÓN MÁS GENERAL QUE COMPONENTES PRINCIPALES YA QUE LOS OBJETOS PUEDEN ESTAR DEFINIDOS POR VARIABLES CUALITATIVAS Y CUANTITATIVAS BASTA CON QUE LA DISIMILARIDAD ENTRE LOS OBJETOS PUEDA ESTABLECERSE MEDIANTE UNA MATRIZ DE DISIMILARIDAD (DISTANCIA)

DISIMILARIDAD ORIGINAL ESPACIO ASOCIADO REDUCCIÓN DE LA DIMENSIONALIDAD a’ c’ b’ lzerpa: OCULTA 4 5 3 DISIMILARIDAD ORIGINAL ESPACIO ASOCIADO

MEDIDAS DE PRESERVACIÓN REDUCCIÓN DE LA DIMENSIONALIDAD MEDIDAS DE PRESERVACIÓN LOS MÉTODOS DIFIEREN EN LA MEDIDA ELEGIDA PARA PRESERVAR LA DISTANCIA. SI d(k,j) ES LA MEDIDA ORIGINAL Y d’(k,j) LA ASOCIADA AL ESPACIO DE PROYECCIÓN ENTONCES SE PROPONE MINIMIZAR: lzerpa: OCULTA ESTA MEDIDA LE ASIGNA MAYOR IMPORTANCIA A LOS ELEMENTOS ALEJADOS, YA QUE ESTOS TIENEN UNA MAYOR INFLUENCIA EN LA FUNCIÓN ERROR

REDUCCIÓN DE LA DIMENSIONALIDAD MAPA DE SAMMON PARA DARLE SIMILAR IMPORTANCIA A LOS PUNTOS CERCANOS Y LEJANOS, Sammon Jr, J. W. (1969) PROPONE UNA MEDIDA DE ERROR DIFERENTE: lzerpa: OCULTA DONDE EL COCIENTE RELATIVO OBLIGA A TENER EN CUENTA A AQUELLOS ELEMENTOS CERCANOS DONDE d(k,j) ES PRÓXIMO A CERO

REDUCCIÓN DE LA DIMENSIONALIDAD CONSTRUCCIÓN DEL MAPA FORMAR LA MATRIZ DE DISIMILARIDADES ENTRE LOS N PUNTOS DE LA DATA UBICAR EN EL PLANO N PUNTOS INICIALES, (Xi,Yi), ASOCIADOS A LOS PUNTOS DE LA MUESTRA: * UBICADOS AL AZAR * PROYECTANDO LA MUESTRA SOBRE EL PLANO FORMADO CON LAS DOS PRIMERAS COMPONENTES PRINCIPALES MINIMIZAR LA FUNCIÓN DE ERROR COMO FUNCIÓN DE LOS PUNTOS (Xi,Yi) lzerpa: OCULTA

MAPAS AUTO-ORGANIZATIVOS REDUCCIÓN DE LA DIMENSIONALIDAD MAPAS AUTO-ORGANIZATIVOS LOS MAPAS AUTO-ORGANIZATIVOS (SOM – SELF-ORGANIZING MAP) FUERON INVENTADOS POR TEUVO KOHONEN EN FINLANDIA, EN LA DÉCADA DE LOS 80 UN MAPA AUTO-ORGANIZATIVO CONSISTE EN UN GRUPO DE NEURONAS ORGANIZADAS EN UNA MALLA DE BAJA DIMENSIÓN CADA NEURONA ESTA REPRESENTADA POR UN VECTOR DE PESOS DE m DIMENSIONES (VECTOR PROTOTIPO) , DONDE m ES IGUAL A LA DIMENSIÓN DEL VECTOR DE ENTRADA LAS NEURONAS ESTÁN CONECTADAS A NEURONAS ADYACENTES POR UNA RELACIÓN DE VECINDAD, LA CUAL DICTA LA TOPOLOGÍA O ESTRUCTURA DEL MAPA

ESTRUCTURAS DE VECINDAD DE MAPAS AUTO-ORGANIZATIVOS REDUCCIÓN DE LA DIMENSIONALIDAD MAPAS AUTO-ORGANIZATIVOS ESTRUCTURAS DE VECINDAD DE MAPAS AUTO-ORGANIZATIVOS HEXAGONAL RECTANGULAR

MAPAS AUTO-ORGANIZATIVOS REDUCCIÓN DE LA DIMENSIONALIDAD MAPAS AUTO-ORGANIZATIVOS OBJETIVO EL SOM TIENE LA PECULIARIDAD, Y DE ÉSTA SURGE SU FORTALEZA, DE SERVIR AL MISMO TIEMPO: PARA REDUCIR EL NÚMERO DE OBSERVACIONES DE LA DATA (CON EL PROPÓSITO DE CLASIFICACIÓN) PARA REDUCIR LA DIMENSIONALIDAD DEL PROBLEMA PRESERVANDO LA TOPOLOGÍA, ES DECIR PRESERVANDO LAS RELACIONES DE VECINDAD O PROXIMIDAD ENTRE LOS ELEMENTOS

MAPAS AUTO-ORGANIZATIVOS REDUCCIÓN DE LA DIMENSIONALIDAD MAPAS AUTO-ORGANIZATIVOS ARQUITECTURA DE LOS MAPAS AUTO-ORGANIZATIVOS UNA CAPA DE ENTRADA, EN LA QUE SE COLOCA EL VECTOR DE ENTRADA A LA RED. LAS NEURONAS DE ESTA CAPA NO REALIZAN NINGÚN PROCESAMIENTO, SÓLO RECIBEN EL VECTOR DE ENTRADA Y LO DISTRIBUYEN A LAS NEURONAS DE LA CAPA DE SALIDA UNA CAPA DE SALIDA, QUE SE CONOCE CON EL NOMBRE DE MAPA

MAPAS AUTO-ORGANIZATIVOS REDUCCIÓN DE LA DIMENSIONALIDAD MAPAS AUTO-ORGANIZATIVOS ARQUITECTURA DE LOS MAPAS AUTO-ORGANIZATIVOS VECTOR DE PESOS

MAPAS AUTO-ORGANIZATIVOS REDUCCIÓN DE LA DIMENSIONALIDAD MAPAS AUTO-ORGANIZATIVOS ALGORITMO DE ENTRENAMIENTO 1. IDENTIFICAR LA DIMENSIÓN m DEL ESPACIO DE ENTRADA, QUE CORRESPONDE AL NÚMERO DE NEURONAS DE LA CAPA DE ENTRADA. LOS s VECTORES DE ENTRENAMIENTO CONSTITUYEN EL CONJUNTO DE DATOS A CLASIFICAR DEFINIR EL TAMAÑO DEL MAPA INICIALIZAR LOS PESOS wi CON VALORES ALEATORIOS SELECCIONAR ALEATORIAMENTE UN VECTOR xj DEL CONJUNTO DE VECTORES DE ENTRENAMIENTO 2. 3. 4.

MAPAS AUTO-ORGANIZATIVOS REDUCCIÓN DE LA DIMENSIONALIDAD MAPAS AUTO-ORGANIZATIVOS ALGORITMO DE ENTRENAMIENTO 5. PARA CADA NEURONA Ni, DEL MAPA, CALCULAR LA DISTANCIA EUCLIDIANA ENTRE SU VECTOR DE PESOS (wi) Y EL VECTOR DE ENTRENAMIENTO SELECCIONADO DETERMINAR LA NEURONA GANADORA, AQUELLA CUYO VECTOR DE PESOS ESTÉ A LA MENOR DISTANCIA DEL VECTOR DE ENTRENAMIENTO, TAMBIÉN CONOCIDA COMO LA UNIDAD DE MEJOR AJUSTE (BMU – BEST-MATCHING UNIT) 6.

MAPAS AUTO-ORGANIZATIVOS REDUCCIÓN DE LA DIMENSIONALIDAD MAPAS AUTO-ORGANIZATIVOS ALGORITMO DE ENTRENAMIENTO 7. ACTUALIZAR EL VECTOR DE PESOS ASOCIADO A LA NEURONA GANADORA, DE MANERA TAL QUE SE MUEVA HACIA EL VECTOR DE ENTRENAMIENTO EN EL ESPACIO DE ENTRADA xj wi(t+1) wi(t)

MAPAS AUTO-ORGANIZATIVOS REDUCCIÓN DE LA DIMENSIONALIDAD MAPAS AUTO-ORGANIZATIVOS ALGORITMO DE ENTRENAMIENTO 8. LAS NEURONAS Nk QUE SE ENCUENTRAN EN LA VECINDAD DE TAMAÑO PRE-ESTABLECIDO, r, ACTUALIZAN SUS PESOS JUNTO A LA NEURONA GANADORA. EL VALOR DE r DISMINUYE A PARTIR DE UN VALOR INICIAL A MEDIDA QUE AVANZA EL PROCESO DE ENTRENAMIENTO. LA FÓRMULA DE ACTUALIZACIÓN DE PESOS ES LA SIGUIENTE: SE RETORNA AL PASO 4, REPITIÉNDOSE EL PROCESO DURANTE UN NÚMERO DE ITERACIONES PREVIAMENTE ESTABLECIDO 9.

MAPAS AUTO-ORGANIZATIVOS REDUCCIÓN DE LA DIMENSIONALIDAD MAPAS AUTO-ORGANIZATIVOS ALGORITMO DE ENTRENAMIENTO ACTUALIZACIÓN DEL MAPA AUTO-ORGANIZATIVO, MOVIMIENTO DE LOS PESOS DE LA NEURONA GANADORA (BMU) Y SU VECINDAD DE RADIO r = 1

CARACTERÍSTICAS DEL MAPA REDUCCIÓN DE LA DIMENSIONALIDAD CARACTERÍSTICAS DEL MAPA DISPOSICIÓN ALARGADA DEL MAPA PARA QUE REFLEJE DIRECCIONES PRIORITARIAS (COMO COMPONENTES PRINCIPALES) MAPA DE RAZONABLE TAMAÑO PARA QUE NO SE CONCENTREN EXCESIVOS ELEMENTOS EN UNA MISMA CELDA

TAL COMO SE VERÁ EN EL PRÓXIMO TEMA: CLASIFICACIÓN REDUCCIÓN DE LA DIMENSIONALIDAD ¿CÓMO ANALIZAR? ETIQUETE EL MAPA PARA UBICAR LOS ELEMENTOS EN ÉL USE LA REPRESENTACIÓN DE Ultsch, UMAP PARA VISUALIZAR LAS DISTANCIAS ENTRE LAS NEURONAS DETECTE EN EL UMAP ESTRUCTURAS RELEVANTES (CLASES) TAL COMO SE VERÁ EN EL PRÓXIMO TEMA: CLASIFICACIÓN

EL MAPA DE KOHONEN PROCURA PRESERVAR LA TOPOLOGÍA REDUCCIÓN DE LA DIMENSIONALIDAD AL SELECCIONAR UN MÉTODO DE REDUCCIÓN DE LA DIMENSIONALIDAD TENGA EN CUENTA QUE: COMPONENTES PRINCIPALES PROYECTA LINEALMENTE MINIMIZANDO LAS DISTANCIAS AL HIPERPLANO EL MAPA DE KOHONEN PROCURA PRESERVAR LA TOPOLOGÍA

EL MAPA DE SAMMON PROCURA CONSERVAR LAS DISTANCIAS REDUCCIÓN DE LA DIMENSIONALIDAD AL SELECCIONAR UN MÉTODO DE REDUCCIÓN DE LA DIMENSIONALIDAD TENGA EN CUENTA QUE: lzerpa: OCULTAR COMPONENTES PRINCIPALES PROYECTA LINEALMENTE MINIMIZANDO LAS DISTANCIAS AL HIPERPLANO EL MAPA DE SAMMON PROCURA CONSERVAR LAS DISTANCIAS EL MAPA DE KOHONEN PROCURA PRESERVAR LA TOPOLOGÍA

REDUCCIÓN DE LA DIMENSIONALIDAD EJEMPLO ILUSTRATIVO I ESTUDIO DE LA DISTRIBUCIÓN DE LA FUERZA LABORAL EMPLEADA (%) EN 9 DIFERENTES GRUPOS INDUSTRIALES EN 26 PAISES DE EUROPA REDUCCIÓN DE LA DIMENSIONALIDAD DE LA DATA CON EL PROPÓSITO DE AISLAR GRUPOS DE PAISES CON SIMILAR DISTRIBUCIÓN DEL EMPLEO Y AYUDAR A LA COMPRENSIÓN DE LA RELACIÓN ENTRE LOS PAISES

Fuente: Euromonitor(1979) REDUCCIÓN DE LA DIMENSIONALIDAD TABLA DE DATOS EN % PAIS AGRO MINE MANU ENER CONST SER_IND FINA SOCIAL TR_COMU BELG 3.3 0.9 27.6 0.9 8.2 19.1 6.2 26.6 7.2 DINA 9.2 0.1 21.8 0.6 8.3 14.6 6.5 32.2 7.1 FRAN 10.8 0.8 27.5 0.9 8.9 16.8 6.0 22.6 5.7 WALE 6.7 1.3 35.8 0.9 7.3 14.4 5.0 22.3 6.1 IRLA 23.2 1.0 20.7 1.3 7.5 16.8 2.8 20.8 6.1 ITAL 15.9 0.6 27.6 0.5 10.0 18.1 1.6 20.1 5.7 LUXE 7.7 3.1 30.8 0.8 9.2 18.5 4.6 19.2 6.2 HOLA 6.3 0.1 22.5 1.0 9.9 18.0 6.8 28.5 6.8 INGL 2.7 1.4 30.2 1.4 6.9 16.9 5.7 28.3 6.4 AUST 12.7 1.1 30.2 1.4 9.0 16.8 4.9 16.8 7.0 FINL 13.0 0.4 25.9 1.3 7.4 14.7 5.5 24.3 7.6 GREC 41.4 0.6 17.6 0.6 8.1 11.5 2.4 11.0 6.7 NORU 9.0 0.5 22.4 0.8 8.6 16.9 4.7 27.6 9.4 PORT 27.8 0.3 24.5 0.6 8.4 13.9 2.7 16.7 5.7 ESPA 22.9 0.8 28.5 0.7 11.5 9.7 8.5 11.8 5.5 SUEC 6.1 0.4 25.9 0.8 7.2 14.4 6.0 32.4 6.8 SUIZ 7.7 0.2 37.8 0.8 9.5 17.5 5.3 15.4 5.7 TURK 66.8 0.7 7.9 0.1 2.8 5.2 1.1 11.9 3.2 BULG 23.6 1.9 32.3 0.6 7.9 8.0 0.7 18.2 6.7 CHEK 16.5 2.9 35.5 1.2 8.7 9.2 0.9 17.9 7.0 EALE 4.2 2.9 41.2 1.3 7.6 11.2 1.2 22.1 8.4 HUNG 21.7 3.1 29.6 1.9 8.2 9.4 0.9 17.2 8.0 POLO 31.1 2.5 25.7 0.9 8.4 7.5 0.9 16.1 6.9 RUMA 34.7 2.1 30.1 0.6 8.7 5.9 1.3 11.7 5.0 USSR 23.7 1.4 25.8 0.6 9.2 6.1 0.5 23.6 9.3 YUGO 48.7 1.5 16.8 1.1 4.9 6.4 11.3 5.3 4.0 Fuente: Euromonitor(1979)

REDUCCIÓN DE LA DIMENSIONALIDAD COMPONENTES PRINCIPALES Eigenvalue Difference Proportion Cumulative PRIN1 3.48258 1.34997 0.386953 0.38695 PRIN2 2.13261 1.03443 0.236957 0.62391 PRIN3 1.09818 0.10331 0.122020 0.74593 PRIN4 0.99487 0.45132 0.110541 0.85647 PRIN5 0.54354 0.15683 0.060394 0.91686 PRIN6 0.38671 0.16198 0.042968 0.95983 PRIN7 0.22473 0.08803 0.024970 0.98480 PRIN8 0.13669 0.13661 0.015188 0.99999 PRIN9 0.00009 . 0.000010 1.00000 CONTRASTES ENTRE LOS SECTORES DE OCUPACIÓN

ESPACIO DE 2 COMPONENTES REDUCCIÓN DE LA DIMENSIONALIDAD COMPONENTES PRINCIPALES ESPACIO DE 2 COMPONENTES Segunda componente principal Primera componente principal

REDUCCIÓN DE LA DIMENSIONALIDAD MAPA DE SAMMON lzerpa: OCULTA

REDUCCIÓN DE LA DIMENSIONALIDAD MAPA DE ULTSCH

EJEMPLO ILUSTRATIVO II REDUCCIÓN DE LA DIMENSIONALIDAD EJEMPLO ILUSTRATIVO II PATRONES DE FLUJO MULTIFÁSICO SE DESEA REALIZAR UN ESTUDIO DE LA REDUCCIÓN DE LA DIMENSIONALIDAD PARA EL CASO DE PATRONES DE FLUJO EN UNA TUBERÍA VERTICAL UNA CLASIFICACIÓN LOS DESGLOSA EN CUATRO PATRONES: BURBUJA, SLUG, CHURN Y ANULAR ES POSIBLE DETERMINAR EL TIPO DE PATRÓN DE FLUJO EN UN TRAMO DE TUBERÍA VERTICAL ANALIZANDO LA FUNCIÓN DE DENSIDAD DE LAS CAÍDAS DE PRESIÓN

REDUCCIÓN DE LA DIMENSIONALIDAD LA FUNCIÓN DE DENSIDAD DE LA CAÍDA DE PRESIÓN RELATIVA A LA DE UNA SOLA FASE SE CARACTERIZA POR LOS SIGUIENTES CUATRO PARÁMETROS: MEDIA, DESVIACIÓN ESTÁNDAR, MÁXIMO DE LA FUNCIÓN DE DENSIDAD ENTRE EL ORIGEN Y 0.5 Y MÁXIMO DE LA FUNCIÓN DE DENSIDAD ENTRE 0.5 Y EL MÁXIMO VALOR MUESTRAL

COMPONENTES PRINCIPALES REDUCCIÓN DE LA DIMENSIONALIDAD COMPONENTES PRINCIPALES PROCENTAJE DE EXPLICACIÓN EN FUNCIÓN DEL NÚMERO DE COMPONENTES

COMPONENTES PRINCIPALES 2D REDUCCIÓN DE LA DIMENSIONALIDAD COMPONENTES PRINCIPALES 2D Primera Componente Segunda Componente

COMPONENTES PRINCIPALES 3D REDUCCIÓN DE LA DIMENSIONALIDAD COMPONENTES PRINCIPALES 3D Primera Componente Segunda Componente Tercera Componente

REDUCCIÓN DE LA DIMENSIONALIDAD MAPA DE SAMMON 2D lzerpa: OCULTA

REDUCCIÓN DE LA DIMENSIONALIDAD MAPA DE SAMMON 3D lzerpa: OCULTA

MAPA ULTSCH REDUCCIÓN DE LA DIMENSIONALIDAD (1) Annular (2) Churn (3) Slug (4) Bubble