La descarga está en progreso. Por favor, espere

La descarga está en progreso. Por favor, espere

Representando para Aprender

Presentaciones similares


Presentación del tema: "Representando para Aprender"— Transcripción de la presentación:

1 Representando para Aprender
Consideraciones para el proyecto Luis Villaseñor Pineda Laboratorio de Tecnologías del Lenguaje Coordinación de Ciencias Computacionales, Instituto Nacional de Astrofísica, Óptica y Electrónica

2 Objetivo del proyecto Nuestro proyecto trata sobre la clasificación de textos Se trata de una clasificación no-temática binaria Movie Review Data Subjectivity datasets Utilizar diferentes representaciones: Dos tipos de representación de la función objetivo Diversas representaciones de las instancias Laboratorio de Tecnologías del Lenguaje

3 Conceptos relacionados
Clasificación temática Noticias sobre: deportes, política, economía, etc. Artículos sobre: medicina, biología, computación, leyes, etc. La presencia y frecuencia de los términos nos da elementos suficientes para su identificación y/o discriminación Mientras más se repite un término más sabemos sobre el tema que aborda el texto Laboratorio de Tecnologías del Lenguaje

4 Conceptos relacionados
Clasificación no-temática Subjetividad, estilo, autoría, etc. ¿podemos hacer la misma suposición? Distinguir un autor vs Distinguir el tema Distinguir objetividad vs subjetividad Laboratorio de Tecnologías del Lenguaje

5 Algunos conceptos básicos en la clasificación de textos
El conjunto de formas gráficas es el vocabulario word-type ó formas léxicas El número total de ocurrencias en un texto es su tamaño word-tokens u ocurrencias Estas nociones son la base para el cálculo de riqueza de vocabulario Tamaño del vocabulario entre el tamaño del documento Laboratorio de Tecnologías del Lenguaje

6 Un ejemplo Proponer un método para la atribución de autoría
Determinar los atributos adecuados para la clasificación por autor Laboratorio de Tecnologías del Lenguaje

7 Experimentos Caracterizando las instancias:
Todas las palabras con excepción de palabras vacías (método tradicional) Con únicamente palabras vacías Todas las palabras incluyendo las palabras vacías En todos los casos aplicando Ganancia de Información como método de selección de atributos Laboratorio de Tecnologías del Lenguaje

8 Al clasificar por autoría (5 clases)
Palabras (sin palabras vacías) Atributos 9,909 % IG > Atributos sólo palabras vacías Atributos 224 % IG > Atributos todas las palabras Atributos 10,133 % IG > Atributos Laboratorio de Tecnologías del Lenguaje

9 Escogiendo los mejores atributos
Los escogeremos a partir de una propiedad estadística llamada Ganancia de Información Para empezar necesitamos introducir el concepto de Entropía Conceptos asociados desorden, número de estados, información entre otros Media del desorden ¿Qué es el desorden? el número de estados posibles de un sistema Laboratorio de Tecnologías del Lenguaje

10 Entropía Ejemplo: tu escritorio tiene un número de estados posibles – donde colocas los apuntes, los libros, los lápices, etc. Idealmente un sólo estado “cada cosa en un sitio” pero la realidad es otra! existen muchos estados posibles… en ocasiones más de los que tu supones!!! Mientras más estados posibles – más desorden Laboratorio de Tecnologías del Lenguaje

11 Entropía en la teoría de la información
En la Teoría de la información la entropía es una medida de magnitud de la información contenida en un flujo de datos ¿Un mismo mensaje puede aportarnos cantidades de información distintas? Depende de los estados posibles en que puede encontrarse nuestro sistema “La calle está mojada” Dado que ha llovido es un estado posible Si no ha llovido la información que aporta este mensaje es diferente !! Laboratorio de Tecnologías del Lenguaje

12 Entropía en la teoría de la información
Entonces mientras menos probable se presente un evento, mayor información traerá consigo La información debe estar en función de la probabilidad del evento E(X) = - Σ p(i) log p(i) La entropía es medida en función de bits Laboratorio de Tecnologías del Lenguaje

13 Entropía en la teoría de la información Ejemplo de Cover & Thomas
Nuestra chamba es recibir apuestas y transmitirlas al hipódromo Tenemos un sistema automático para ello, cada caballo está codificado (usando una representación binaria) Caballo 1 – 001, caballo 2 – 010 Sabemos que sólo tenemos 8 caballos así que usaremos 3 bits para codificarlos a todos Sin embargo, conocemos las probabilidades de ganar de cada caballo El mensaje más común será el del caballo con más probabilidades de ganar Entonces por que no cambiar la codificación y usar un sólo bit 0 para el caballo más probable, 1 para el que le sigue 10, para el siguiente, 11, 100, etc. Laboratorio de Tecnologías del Lenguaje

14 Entropía en la teoría de la información Ejemplo de Cover & Thomas
Probabilidades p(c1)=0.5, p(c2)=0.25, p(c3)=0.125 , p(c4)=0.06 , p(c5)=0.015, p(c6)=0.015, p(c7)=0.015, p(c8)=0. 015 E(X) = - Σ p(i) log p(i) E(X) = 2 bits Laboratorio de Tecnologías del Lenguaje

15 Aplicamos esto a atributos Tomado de Rob Callan
Para el caso de c clases y un atributo a en que para todos los ejemplos se tiene un valor de v, la entropía la definimos así: Donde pi es la probabilidad de que el valor v ocurra en la categoría i Así una distribución de frecuencias no uniforme nos permitirá reducir el número de bits necesarios Laboratorio de Tecnologías del Lenguaje

16 Ganancia de Información
La ganancia de información de un atributo es la reducción esperada en entropía si los ejemplos son particionados de acuerdo a dicho atributo: Donde T es un conjunto de ejemplos de entrenamiento y Tj es el subconjunto de ejemplos con el valor j para el atributo A. Laboratorio de Tecnologías del Lenguaje

17 Por ejemplo Supongamos que tenemos 20 instancias, y tenemos dos categorías {POS, NEG} donde tenemos 11 instancias clasificadas como POS y 9 instancias como NEG. La clasificación deseada la podemos tratar como un atributo con dos valores entonces la entropía es: Laboratorio de Tecnologías del Lenguaje

18 Por ejemplo La ganancia para cada atributo será entonces:
Laboratorio de Tecnologías del Lenguaje

19 Algunas medidas de evaluación
La exactitud – nos da una idea general del comportamiento del clasificador. Es el porcentaje de instancias correctamente clasificadas Supongamos un problema de dos clases con 31 instancias a clasificar Ex = (11 + 6) / 31 = 55% Sin embargo, que pasa si tenemos esto: Ex = (17 + 0) / 31 = 55% Laboratorio de Tecnologías del Lenguaje

20 Algunas medidas de evaluación
Precisión El porcentaje de instancias correctamente clasificadas de entre todas las que se predijo que pertenecían a la clase. Recall/Recuerdo (evocación, cobertura, recubrimiento, alcance) porcentaje de instancias clasificadas correctamente de entre todas las instancias de la clase F-mesure Laboratorio de Tecnologías del Lenguaje

21 Sobre la evaluación en el aprendizaje
Las instancias a + b son de la clase A, el sistema predice que a instancias pertenecen a la clase A y que las b restantes son de la clase B. Las instancias c + d son de la clase B, el sistema predice que c instancias pertenecen a la clase A y que las d restantes son de la clase B. Clase Predicción A Predicción B A a b B c d Laboratorio de Tecnologías del Lenguaje

22 Sobre la evaluación en el aprendizaje
El número de instancias correctamente clasificadas es a + d c + b es el número de instancias clasificadas incorrectamente. Esta es una matriz de confusión, donde b recibe el nombre de Falsos Negativos y c son los Falsos Positivos. Clase Predicción A Predicción B A a b B c d Laboratorio de Tecnologías del Lenguaje

23 Relación precisión - recuerdo
Tenemos dos clases ( A = 21; B = 10) Clase Predicción A Predicción B A a b B c d Laboratorio de Tecnologías del Lenguaje

24 Relación precisión - recuerdo
El sistema predice que algunos objetos como pertenecientes a la clase A Clase Predicción A Predicción B A 11 10 B 4 6 Laboratorio de Tecnologías del Lenguaje

25 Relación precisión - recuerdo
Precisión - porcentaje de instancias correctamente clasificadas entre todas las que se predijo que pertenecían a la clase. P = a / (a+c) = 11/15 = 73% Clase Predicción A Predicción B A 11 10 B 4 6 Laboratorio de Tecnologías del Lenguaje

26 Relación precisión - recuerdo
Recuerdo - porcentaje de instancias clasificadas correctamente de entre todas las instancias de la clase. R = a / (a+b) = 11/21 = 52% Clase Predicción A Predicción B A 11 10 B 4 6 Laboratorio de Tecnologías del Lenguaje

27 Relación precisión - recuerdo
Normalmente mientras más alto sea nuestro recuerdo nuestra precisión será menor. Laboratorio de Tecnologías del Lenguaje

28 Relación precisión - recuerdo
Normalmente mientras más alto sea nuestro recuerdo nuestra precisión será menor. Laboratorio de Tecnologías del Lenguaje

29 Relación precisión - recuerdo
Normalmente mientras más alto sea nuestro recuerdo nuestra precisión será menor. P = a / (a+c) = 21/31 = 68% R = a / (a+b) = 21/21 = 100% Clase Predicción A Predicción B A 21 B 10 Laboratorio de Tecnologías del Lenguaje

30 Consideraciones en la evaluación
El modelo construido es dependiente de las instancias usadas durante el entrenamiento ¿Cómo asegurar que nuestra evaluación es correcta? Dividir el conjunto de instancias en un conjunto de entrenamiento y otro de prueba Utilizar una técnica de validación cruzada en pliegues Laboratorio de Tecnologías del Lenguaje


Descargar ppt "Representando para Aprender"

Presentaciones similares


Anuncios Google