La descarga está en progreso. Por favor, espere

La descarga está en progreso. Por favor, espere

January 1, 2014Maestría en Data Mining1 Reglas de Asociación Algoritmo Apriori.

Presentaciones similares


Presentación del tema: "January 1, 2014Maestría en Data Mining1 Reglas de Asociación Algoritmo Apriori."— Transcripción de la presentación:

1 January 1, 2014Maestría en Data Mining1 Reglas de Asociación Algoritmo Apriori

2 January 1, 2014Maestría en Data Mining 2 Reglas de Asociación Ejemplo. Antecedente Consecuente [soporte, confianza]. pañales cerveza [0.5%, 60%] Soporte = porcentaje de transacciones que contienen pañales y cerveza Confianza: porcentaje de las transacciones que tienen pañales que también tienen cerveza

3 January 1, 2014Maestría en Data Mining 3 Apriori ¿Cómo encontrar las reglas?Hacer todos las combinaciones posibles es muy costoso. Dos grandes pasos Descubrimientos de los itemsets frecuentes Descubrimiento de las reglas contenidas en esos itemsets Maneja 2 conjuntos de itemsets Candidatos ( C k ) y Frecuentes ( L k ) Usa una propiedad muy importante Un itemset no puede ser frecuente si tiene algún itemset contenido en él que no lo es.

4 January 1, 2014Maestría en Data Mining 4 El algoritmo Join Step: C k is generated by joining L k-1 with itself Prune Step: Any (k-1)-itemset that is not frequent cannot be a subset of a frequent k-itemset Pseudo-code: C k : Candidate itemset of size k L k : frequent itemset of size k L 1 = {frequent items}; for (k = 1; L k != ; k++) do begin C k+1 = candidates generated from L k ; for each transaction t in database do increment the count of all candidates in C k+1 that are contained in t L k+1 = candidates in C k+1 with min_support end return k L k ;

5 January 1, 2014Maestría en Data Mining 5 Ejemplo de Generación de Candidatos L 3 ={abc, abd, acd, ace, bcd} Unir: L 3 *L 3 abcd de abc y abd acde de acd yace Pruning: Como ade no está en L 3 se elimina acde C 4 ={abcd}

6 Obtención de las reglas For each frequent itemset X, For each proper nonempty subset A of X, Let B = X - A A B is an association rule if Confidence (A B) minConf, where support (A B) = support (AB), and confidence (A B) = support (AB) / support (A)

7 Ejercicio Propuesto T1 = { A B C D E F } T2 = {B D E F } T3 = { D E F} T4 = { C D} T5 = { A F} T6 = { A C E F} Minsup= 0.5; confidence = 0.75 January 1, 2014Maestría en Data Mining 7

8 January 1, 2014Maestría en Data Mining 8 Association Rule Mining: A Road Map Boolean vs. quantitative associations (Based on the types of values handled) buys(x, SQLServer) ^ buys(x, DMBook) buys(x, DBMiner) [0.2%, 60%] age(x, ) ^ income(x, K) buys(x, PC) [1%, 75%] Single dimension vs. multiple dimensional associations (see ex. Above) Single level vs. multiple-level analysis What brands of beers are associated with what brands of diapers? Various extensions Correlation, causality analysis Association does not necessarily imply correlation or causality Maxpatterns and closed itemsets Constraints enforced E.g., small sales (sum 1,000)?

9 January 1, 2014Maestría en Data Mining9 Reglas de Asociación Muchas Gracias !


Descargar ppt "January 1, 2014Maestría en Data Mining1 Reglas de Asociación Algoritmo Apriori."

Presentaciones similares


Anuncios Google