Aprendizaje a partir de observaciones

Slides:



Advertisements
Presentaciones similares
INGENIERIA INFORMATICA Y BUSQUEDAS CON ADVERSARIOS
Advertisements

DISEÑO DE EXPERIMENTOS EXPERIMENTOS DE COMPARACIÓN SIMPLE
IBD Plan 90 y 2003 Clase 11.
Introducción a la Estadística
Introducción al Teorema de Gödel Eduardo Alejandro Barrio UBA - CONICET 2do Cuatrimestre de 2009 Eduardo Alejandro Barrio UBA.
Tema 5. LAS EMPRESAS DE LOS MERCADOS COMPETITIVOS
Tema 15. Contraste de hipótesis: Planteamiento de las hipótesis
Ejemplo 2: Reparto de 3 objetos indivisibles.
Diseño y análisis de algoritmos
Inteligencia Artificial
TEORIA DE SISTEMAS Prof. Henry Coello Abril 2009.
Profesor : Rodrigo Sanchez H.
Planificación de Monoprocesadores
CONTENIDOS Teoría del muestreo ¿Cómo seleccionar una muestra?
} LISSET BÁRCENAS MONTERROZA
Instituto tecnológico de Villahermosa
MÉTODOS DE ANÁLISIS FINANCIEROS
¿Qué es un modelo conceptual?
10. LIMITES DE FUNCIONES Definición de límite
KRIGING.
Muestreo para la inspección por atributos
Preguntas tipo test (I)
TEMA III.
Representación del Conocimiento
REDES BAYESIANAS Y DECISIÓN ESTADÍSTICA
Programación de Computadores
Prueba de hipótesis Equivalencia entre la prueba de hipótesis y los intervalos de confianza Valor de probabilidad Valor de probabilidad unilateral Prueba.
Tests de hipótesis Los tres pasos básicos para testear hipótesis son
La Derivada. Ya vimos: los conceptos, métodos ó instrumentos necesarios para establecer el “comportamiento” de una función.  en un entorno de x o [ 
Clases 4 Pruebas de Hipótesis
Población y Muestra.
Teoría de Respuesta al Ítem
Diseño y análisis de algoritmos
(Organización y Manejo de Archivos)
Aprendizaje (Machine Learning)  Pregunta interesante: Podemos hacer que las computadoras aprendan?  Aprender: mejorar automáticamente con la experiencia.
Material de apoyo Unidad 4 Estructura de datos
Investigación Experimental
Sistemas Inteligentes Distribuidos Sistemas Inteligentes Distribuidos Sesión 13 L. Enrique Sucar / Marco López Sesión 13 L. Enrique Sucar / Marco López.
Unidad V: Estimación de
Introducción La inferencia estadística es el procedimiento mediante el cual se llega a inferencias acerca de una población con base en los resultados obtenidos.
Universidad Nacional de Colombia Curso Análisis de Datos Cuantitativos.
Parte II. Algorítmica. 5. Backtracking. 1. Análisis de algoritmos.
Simular: Representar una cosa, fingiendo o imitando lo que no es.
ESTIMACION POR INTERVALOS
Aprendizaje en Árboles de Decisión
Clase 4a Significancia Estadística y Prueba Z
Curso de Teoría del Autómata
Inteligencia Artificial
Análisis y Diseño de Algoritmos
Unidad V: Estimación de
Capítulo 1. Conceptos básicos de la Estadística
Pruebas de hipótesis.
Las Pruebas del Software y sus Fundamentos
INTEGRANTES: ALEJANDRO, ARISMIR, ADRIANA,, YESSENIA, NEYLA, YUSMILA, JONATHAN. UNIVERSIDAD NACIONAL EXPERIMENTAL POLITECNICA DE LA FUERZA ARMADA UNEFA.
Estimación y contraste de hipótesis
Tomando decisiones sobre las unidades de análisis
2.1 DEFINICIONES CARACTERÍSTICAS Y SUPOSICIONES.
ESTIMACIÓN DE PARÁMETROS
Academia de Padres Tema: Programas para Nuestros Aprendices de Ingles
Aplicación JAVA implementando Arboles de Decisión

Aspectos generales de la investigación educativa en el SNIT
DETECCION DE SEÑALES BINARIAS EN RUIDO GAUSSIANO El criterio de toma de decisión fue descrito por la ecuación Un criterio muy usado para escoger el nivel.
Clase N°11 Métodos de reducción de varianza
INFERENCIA ESTADÍSTICA
Marco de Trabajo para Indexación, Clasificación y Recopilación Automática de Documentos Digitales Javier Caicedo Espinoza Gonzalo Parra Chico.
DILUCIONES.
BIOESTADÍSTICA Y ESTADÍSTICA BÁSICA CHILLÁN, SEGUNDO SEMESTRE PROF. SOC. M© KEVIN VILLEGAS.
RECHAZO DE DATOS DE UNA SERIE
PRUEBA DE SIGNIFICANCIA
Transcripción de la presentación:

Aprendizaje a partir de observaciones

Modelo general de agentes que aprenden Retroali- mentación Estandar de desempeño A M B I E N T Crítico Sensores Retroali- mentación Cambios Elemento de Aprendizaje Elemento de desempeño Conocim. Objetivos de aprendizaje Generador de Problemas Efectores Agente

Componentes conceptuales del modelo Elemento de aprendizaje: responsable de realizar mejo-ras. Elemento de desempeño: responsable de seleccionar ac-ciones externas. Crítico: diseñado para decirle al elemento de aprendiza-je cuan bien se desempeña el agente. Usa un estandar de desempeño fijo (conceptualmente fuera del agente). Generador de problemas: responsable de sugerir accio-nes que llevarán a experiencias nuevas e informativas.

Factores que afectan el diseño del elemento de aprendizaje Qué componentes del elemento de desempeño van a ser mejorados Qué representación se usa para esos componentes Qué retroalimentación hay disponible Qué información previa hay disponible

Componentes del elemento de desempeño Un mapeo directo de condiciones en el estado actual, a acciones. Un medio para inferir propiedades relevantes del mundo a partir de la secuencia de percepciones. Información acerca del modo en que evoluciona el mundo. Información acerca de los resultados de posibles acciones que puede realizar el agente. Información de utilidad indicando cuan deseables son los estados del mundo. Información del valor de cada acción indicando cuan deseables son las acciones particulares en estados particulares. Objetivos que describen clases de estados cuyos desenvolvimientos maximizan la utilidad del agente. Cada uno de los siete componentes del elemento de desempeño puede ser descripto matemáticamente como una función. El punto clave es que todo el aprendizaje puede verse como aprender la representación de una función.

Crítico, Generador de problemas Crítico: diseñado para informar al elemento de aprendizaje cuan bien está haciendo las cosas el agente. Usa un estándar de desempeño fijo. Generador de problemas: responsable de sugerir acciones que llevarán a nuevas experiencias informativas. Si el agente explora un poco, y realiza algunas acciones tal vez subóptimas en el corto plazo, puede descubrir acciones mucho mejores en el largo plazo.

Aprendizaje inductivo Un ejemplo es un par (x, f(x)), donde x es la entrada y f(x) es la salida de la función aplicada a x. Inducción. Dada una colección de ejemplos de f, su tarea es devolver una función h, la hipótesis, que sea aproximadamente igual a f. Cualquier preferencia por una hipótesis sobre otra, más allá de la mera consistencia con los ejemplos, se denomina ´bias´(desvío). Todos los algoritmos exhiben algún grado de desvío dado que casi siempre hay un gran número de hipótesis consistentes posibles. En el aprendizaje hay una solución de compromiso fundamental en-tre expresividad -¿es la función deseada representable en el lenguaje de representación?- y eficiencia -¿será el problema de aprendizaje tratable para una elección dada del lenguaje de representación?-

Aprendizaje por árboles de decisión La inducción por árbol de decisión es una de las más sim-ples y más exitosas formas de algoritmo de aprendizaje. Arboles de decisión como elemento de desempeño Un árbol de decisión toma como entrada un objeto o situa-ción descripto por un conjunto de propiedades, y da como salida una ´decisión´ si/no. Cada nodo interno en el árbol corresponde a una prueba del valor de una de las propiedades, y las ramas desde el nodo están etiquetadas con los valores posibles del test. Cada nodo hoja en el árbol especifica el valor Booleano que se retornará si esa hoja es alcanzada.

Ejemplo: Arbol de decisión para decidir si esperar por una mesa en un restaurant ¿Gente en el Restaurante? Ning. Lleno Algunos No Si ¿Espera estimada? >60 30 - 60 10 - 30 0 - 10 No ¿Restaurante alternativo? ¿Hambriento? Si No Si No Si ¿Reservaciones? Vi/Sa Si ¿Restaurante alternativo? No Si No Si No Si ¿Bar? Si No Si Si ¿Llueve? No Si No Si No Si No Si

Expresividad de los árboles de decisión Los árboles de decisión no pueden representar nin-gún conjunto, dado que son implícitamente limita-dos a hablar de un solo objeto. El lenguaje del árbol es esencialmente proposicional, siendo cada prueba de atributo una proposición. No hay ningún tipo de representación que sea efi-ciente para todos los tipos de función.

Inducción de árboles de decisión a partir de ejemplos Un ejemplo es descripto por los valores de los atributos y el valor del predicado objetivo. Navaja de Ockham, principio general de aprendizaje induc-tivo: La hipótesis más probable es la más simple que sea consistente con todas las observaciones. Desafortunadamente, encontrar el árbol de decisión más pe-queño es un problema intratable, pero con algunas heurísti-cas simples, podemos hacer un buen trabajo encontrando uno pequeño. La idea básica detrás del algoritmo de aprendizaje por medio del árbol de decisión es probar el atributo más im-portante primero (el atributo que hace la mayor diferencia en la clasificación de un ejemplo). Después de que la prueba del primer atributo divide los ejemplos, ca-da resultado es un problema de aprendizaje por árbol de decisión en sí mismo, con menos ejemplos y un atributo menos.

X1 Si No No Si Alg $$$ No Si Frnc 0-10 Si Atributos Objetivo Esperará Ejemplos Alt Bar Vie Ham Gente Precio Llueve Reser Tipo Espera X1 Si No No Si Alg $$$ No Si Frnc 0-10 Si X2 Si No No Si Llen $ No No Thai 30-60 No X3 No Si No No Alg $ No No Brgr 0-10 Si X4 Si No Si Si Llen $ No No Thai 10-30 Si X5 Si No Si No Llen $$$ No Si Frnc >60 No X6 No Si No Si Alg $$ Si Si Ital 0-10 Si X7 No Si No No Nng $ Si No Brgr 0-10 No X8 No No No Si Alg $$ Si Si Thai 0-10 Si X9 No Si Si No Llen $ Si No Brgr >60 No X10 Si Si Si Si Llen $$$ No Si Ital 10-30 No X11 No No No No Nng $ No No Thai 0-10 No X12 Si Si Si Si Llen $ No No Brgr 30-60 Si

Casos a considerar Si hay algunos ejemplos positivos o negativos, elegir el mejor atributo para dividirlos. Si todos los ejemplos que restan son positivos ( o todos negativos), hemos terminado: podemos contestar Si o No. Si no quedan ejemplos, significa que no se ha observado tal tipo de ejemplo, y devolvemos un valor por omisión calculado a partir de la clasificación de mayoría en el padre del nodo. Si no quedan atributos, pero sí ejemplos positivos y negativos, tenemos un problema. Significa que estos ejemplos tienen exactamente la misma descrip-ción, pero clasificaciones diferentes. Esto ocurre cuando algunos de estos da-tos son incorrectos; decimos que hay ruido en la información. También suce-de cuando los atributos no dan suficiente información para describir comple-tamente la situación, o cuando el dominio es verdaderamente no determinís-tico. Una forma simple de salir de este problema es usar el voto de mayoría.

Arbol resultante Clientes en el Restaurante Tiene hambre No Ning. Algunos Lleno Si Tipo Vie/Sáb Franc Italiano Thai Burger El árbol es diferente del árbol original. El algoritmo de aprendizaje ve los ejemplos, no la función correcta, y de hecho, su hipótesis no solo concuerda con todos los ejemplos, sino que es considerablemente más simple que el árbol original.

Evaluación del rendimiento del algoritmo de apredizaje Un algoritmo de aprendizaje es bueno si produce una hipótesis que predice bien la clasificación de ejemplos aún no vistos. Una metodología posible para evaluar las predicciones es la sig.: Recolectar un gran conjunto de ejemplos. Dividirlo en dos conjuntos ´disjuntos´: el conjunto de entrena-miento y el conjunto de prueba. Usar el algoritmo de aprendizaje con el conjunto de entrena-miento como ejemplos para generar una hipótesis H. Medir el porcentaje de ejemplos, en el conjunto de prueba, que son correctamente clasificados por H. Repetir los pasos 1 a 4 para diferentes tamaños de conjuntos de entrenamiento y diferentes conj.de entrenam de cada tamaño, se-leccionados al azar. (ver fig. 18.9 Curva de aprendizaje)

Hipótesis lógicamente consistente Dos enfoques que encuentran hipótesis lógicamente consistentes son: Búsqueda según la mejor hipótesis actual. Búsqueda con mínimo compromiso. Búsqueda según la mejor hipótesis actual mantiene una hipótesis, y la ajusta a medida que llegan nuevos ejemplos, para mantener la con-sistencia. (a) Hipótesis consistente. (b) falso negativo. (c) La hipótesis es generalizada. (d) falso positivo. (e) La hipótesis es especializada. - - - - - - (a) - - - - (+) - - (b) - - - - + - - (c) - - - - (-) - - - (d) - - - - - - - - (e) + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +

Hipótesis lógicamente consistente (continuación) Búsqueda con mínimo compromiso mantiene todas las hipótesis consistentes con toda la información acumulada hasta el momento. El espacio de hipótesis original se puede ver como una oración disyunti-va H1  H2  H3  H4  ...  Hn A medida que encontramos que varias hipótesis son inconsistentes con los ejemplos, la disyunción se reduce. Una propiedad importante de este enfoque es que es incremental: uno nunca debe volver y reexami-nar los ejemplos anteriores. Todas la hipótesis que quedan son consis-tentes con ellos. Tenemos un orden en el espacio de hipótesis, generalización/espe-cialización. Este es un orden parcial, cada límite no será un punto sino un conjunto de hipótesis llamado conjunto límite. Podemos representar el espacio de versión completo usando sólo dos espacios límite: Límite más general (conj-G) y Límite más específico (conj-E), todo lo que esté entre ellos será consistente con los ejemplos.

Hipótesis lógicamente consistente (continuación) El espacio de versión inicial (antes de haber visto algún ejemplo) represente todas las hipótesis posibles: conj-G =V (la hipótesis que contiene todo),y conj-E = F (la hipótesis cuya extensión está vacía). Extensión de los miembros de G y E. Ningún ejemplo conocido se encuentra entre los conjuntos G yE. - - - - - - - - - - - - - - - G1 - - - - - G2 - - - - - - - - - + + + + + + + + +

Uso de la Teoría de la Información Un árbol de decisión examina el conjunto de datos, y usa teoría de la información para determinar cuál es el atributo que contiene la mayor información sobre la cual basar una decisión. Teoría de la Información En general, si las posibles respuestas vi tienen probabilidad P(vi), entonces la cantidad de información I de la respuesta real es obtenida de la siguiente manera: n I(P(v1), P(v2),..., P(vn)) =  -P(vi)log2P(vi) i=1 esto es el contenido de información promedio de los distintos eventos (el término -log2P) multiplicado por la probabilidad de cada evento.

Uso de la Teoría de la Información (continuación) En el caso de árboles de decisión se debe hallar la respuesta a la pre-gunta ¿para un ejemplo dado, cuál es la clasificación correcta? Una estimación de las probabilidades de una respuesta posible, antes de haber probado algún atributo, está dada por la proporción de ejemplos positivos y negativos en el conjunto de entrenamiento: I(p/(p+n), n/(p+n))= - (p/(p+n)).log2(p/(p+n)) - (n/(p+n)). log2(n/(p+n)) (p/(p+n)) probabilidad de que ocurra un caso positivo -log2(p/(p+n)) contenido de información de ese evento En promedio, luego de probar un atributo A, todavía necesitaremos para v valores distintos de A: v Resto(A) =  ((pi + ni)/(p+n)).I(pi/(pi + ni), ni/(pi + ni)) i=1 bits de información, donde i va desde 1 hasta v. Ganancia(A) = I(p/(p + n), n/(p + n)) – Resto(A) Siendo I(p/(p + n), n/(p + n)) el requerimiento original de información.