La descarga está en progreso. Por favor, espere

La descarga está en progreso. Por favor, espere

Integrantes Natalia Merino (85828) Gastón Sabatelli (85523) M. Florencia Pereira (88816)

Presentaciones similares


Presentación del tema: "Integrantes Natalia Merino (85828) Gastón Sabatelli (85523) M. Florencia Pereira (88816)"— Transcripción de la presentación:

1 Integrantes Natalia Merino (85828) Gastón Sabatelli (85523) M. Florencia Pereira (88816)

2 El algoritmo en el contexto Supervisado Técnicas de Data Mining No Supervisado Clustering Reglas de asociación Jerárquico Particionado K-Means SOM Agrupación en conjuntos con propiedades comunes Es necesario especificar el número Inicial de clusters No existen clases predefinidas Utiliza como medida de similitud la distancia de los objetos a cada centroide (media)

3 Introducción al problema K-Means resuelve un problema de clustering, que consiste en: Se tiene un conjunto de datos u observaciones (x1, x2, …, xn) donde cada dato representa un vector de n variables. Se desea particionar las observaciones en k grupos. Se elige para cada grupo un centro o media y se ubica cada observación en el grupo cuya media sea más cercana.

4 Introducción al problema (cont.) Para medir la cercanía se utiliza la norma euclídea y se busca minimizar la siguiente función: donde μi es la media de la partición Si (un grupo).

5 Características del algoritmo Siempre se tienen K clusters predefinidos. Siempre hay por lo menos un objeto en cada cluster. Método no supervisado de aprendizaje Los objetos deberán poder representarse mediante atributos numéricos. Los clusters son mutuamente expluyentes. Los objetos pertenecientes a un cluster están lo más cerca posible entre sí y lo más lejos posible de los elementos de otros clusters. Método particionado

6 1. Se eligen arbitrariamente k centros o medias, una por cada partición. En la práctica usualmente se eligen en forma aleatoria. 2. Paso de asignación: se asignan las observaciones a la partición cuyo centro sea más cercano. 3. Paso de actualización: se calculan cuales son los nuevos centros de cada partición. El centro representaría el centro de masa o el promedio de todas las observaciones que pertenecen a esa partición. 4. Se repiten los pasos 2 y 3 hasta que no haya más movimientos en las particiones (entonces se dice que el algoritmo converge). Algoritmo

7 Análisis gráfico

8 Ejemplo numérico (I) Se tiene 4 tipos de remedios que se desean agrupar en k=2 clusters, considerando 2 atributos que son: peso y PH. Remedioatributo 1 (X): pesoAtributo 2 (Y): pH Remedio A11 Remedio B21 Remedio C43 Remedio D54

9 Ejemplo numérico (II) Iteración 0: Inicialmente elegimos como centros a los remedios A y B. AB C D C1 C2

10 Ejemplo numérico (III) Iteración 0: Calculamos la distancia de cada centro a cada remedio, usando la distancia Euclídea. C1 C2 A B C D Asignamos a cada remedio un cluster. Para A el C1, para B el C2, para C el C2 y para D el C2.

11 Ejemplo numérico (IV) Iteración 1: Obtenemos los nuevos centros. El C1 solo tiene un miembro, el remedio A. El C2 tiene 3 miembros, el nuevo centroide es el promedio de sus coordenadas. A B C D C1 C2

12 Ejemplo numérico (V) Iteración 1: Calculamos la distancia de cada centro a cada remedio, usando la distancia Euclídea. Asignamos a cada remedio un cluster. Para A el C1, para B el C1, para C el C2 y para D el C2. C1 C2 A B C D

13 Ejemplo numérico (VI) Iteración 2: Obtenemos los nuevos centros. A C1 B D C C2

14 Ejemplo numérico (VII) Iteración 2: Calculamos la distancia de cada centro a cada remedio, usando la distancia Euclídea. Asignamos a cada remedio un cluster. Para A el C1, para B el C1, para C el C2 y para D el C2. Al no haber cambios ya no se necesitan más iteraciones. C1 C2 A B C D

15 Resultado RemedioPesopHCluster N° Remedio A111 Remedio B211 Remedio C432 Remedio D542

16 Ventajas Es un algoritmo sencillo y computacionalmente rápido. Fácil de implementar. Por esta razón, la mayoría de las herramientas de Data Mining incluyen al algoritmo. Es práctico si no se tiene un gran número de observaciones. La forma clásica de implementación de Kmeans es usando la distancia Euclídea, sin embargo la misma metodología funciona bien con otro tipo de distancias.

17 Desventajas El resultado del algoritmo es muy sensible a la configuración inicial de los agrupamientos, es decir cómo se asignaron los centros inicialmente. En cada ejecución podría generar resultados muy variados dependiendo de esta elección inicial. La necesidad de definir la cantidad de particiones de antemano, ya que la elección de un k inadecuado puede derivar en un resultado lejano al óptimo. Posibilidad de que se presenten óptimos locales al asignar los centros, es decir que la partición sea óptima en la forma que minimiza las distancias dentro de cada grupo pero no a nivel total (no tiende a obtener mínimos globales). Muchas veces es necesario realizar sucesivas ocasiones para obtener un resultado mas óptimo.

18 Desventajas (cont.) Es susceptible a valores extremos porque distorsionan la distribución de los datos. No funciona bien si los grupos son de distinto tamaño y densidad o no convexos.

19 Variaciones del algoritmo Existen varios algoritmos como por ejemplo GRASP [Greedy Randomized Adaptive Search Procedure] que utilizan heurísticas tales como Ant Colony para evitar óptimos locales. k-Modes (Huang1998) utiliza modas en vez de medias (para poder trabajar con atributos de tipo categórico). k-Medoids utiliza medianas en vez de medias para limitar la influencia de los observaciones distantes del resto.

20 Ejemplo en WEKA

21 Bibliografía ustering.pdf ustering.pdf tml/kmeans.html tml/kmeans.html means.html means.html

22 ¿Preguntas?

23 Gracias


Descargar ppt "Integrantes Natalia Merino (85828) Gastón Sabatelli (85523) M. Florencia Pereira (88816)"

Presentaciones similares


Anuncios Google