Aprendiendo de las observaciones Capítulo 18. Contenido Agentes aprendices Aprendizaje inductivo Aprendizaje de árboles de decisión.

Slides:



Advertisements
Presentaciones similares
Aprendizaje a partir de observaciones
Advertisements

Aprendizaje en Árboles de Decisión
Inteligencia Artificial
APLICACIONES: TAI Y MEDICIÓN COGNITIVA DE LAS APTITUDES JOSÉ Mª LÓPEZ CHAMORRO CURSO 07/08.
Javier Benavides Pañeda
TEMA 3: ESTADÍSTICA BIDIMENSIONAL. ÍNDICE: 1.- Relación estadística: correlación. 2.- Diagramas de dispersión o nube de puntos. 3.- Tablas de frecuencia.
Ejemplos de  2 y prueba de contingencia Queremos saber: 1.- Si la diferencia entre los parentales en cuanto al color de la flor se debe a un solo gen.
PLANIFICACIÓN CURRICULAR Y DE AULA Integrantes: Ángela Castro Margarita González Fabiola Labra Nicole Strôbel Marcela Zamorano Integrantes: Ángela Castro.
TEMA 3: Estadística Bidimensional. ● Álvaro Fernández Romero y Luis Carlos Fernández herrezuelo.
PPTCES047MT22-A16V1 Clase Medidas de dispersión y muestreo MT-22.
Teoría de decisiones unidad 4 APLICA LAS TÉCNICAS DE LA TEORÍA DE DECISIONES PARA MODELOS DETERMINISTAS Y PROBABILISTAS.
DISTRIBUCIONES DE Probabilidad
LOS MENTEFACTOS CONCEPTUALES
Valor que toma la variable aleatoria
FACULTAD DE EDUCACION A DISTANCIA Y VIRTUAL
RELACIÓN MÉTODO-CONTENIDOS
Las categorías didácticas Formas de organización
Muestreo PRUEBAS Y VALIDACION DE HIPOTESIS Carlos Willian Rincón Pérez
Curso de Elaboración de Pruebas Prof. Gerardo A. Valderrama M
LOS MENTEFACTOS CONCEPTUALES
El conjunto de los números naturales
simulacion Resumen unidad 1 Equipo Baldor Huerta Ocejo Ivan de Jesus
Principios Lógicos Son los fundamentos que determinan ciertas reglas a seguir, para lograr la coherencia y sistematicidad de los pensamientos en las.
CHI CUADRADO  2 OBJETIVOS –Describir situaciones donde es adecuado la utilización de la prueba de Chi Cuadrado (  2 ) –Formular Hipótesis para diferentes.
Inteligencia Computacional
“INTEGRACIÓN DE LO APRENDIDO”
Presentado por: Edison Ferney Sánchez Contreras
Metodología de la Investigación
CAPÍTULO 7: DETECCIÓN DE BORDES
Modelado – Árbol de Decisión Mg. Samuel Oporto Díaz
Metodología de la Investigación
Estadística Básica Curso de Estadística Básica MCC. Manuel Uribe Saldaña MCC. José Gonzalo Lugo Pérez SESION 3 MEDIDAS DE TENDENCIA CENTRAL Y MEDIDAS DE.
DISEÑO DE EXPERIMENTOS. ¿Qué es un Diseño Experimental? Un experimento diseñado es una prueba o serie de pruebas en las cuales se inducen cambios deliberados.
REGRESÍON LINEAL SIMPLE
CODIFICACION DEL CANAL
“PROYECTO TECNOLOGICO”.
UNIVERSIDAD DE PUERTO RICO RECINTO UNIVERSITARIO DE MAYAGUEZ
Metodología de la Investigación
Investigación de mercados
MÉTODO CIENTÍFICO.
Expositoras: Claudia Bascuñán Loreto Díaz
Capítulo 10 Test de Hipótesis Capítulo 10 Test de Hipótesis.
ESTIMACIÓN (Inferencia Estadística) Intervalos de Confianza
 La minería de datos o exploración de datos (es la etapa de análisis de "Knowledge Discovery in Databases" o KDD) es un campo de la estadística y las.
Resultados del Cotejo de Actividades de Logros
i=2I.
APRENDIZAJE SIGNIFICATIVO
Identificación y Clasificación de los Componentes Reutilizables.
Identificación y Clasificación de los Componentes Reutilizables.
Investigación Científica
Curso de Programación Estructurada
SEGUNDA REUNIÓN DE TRABAJO. PORTAFOLIO VIRTUAL DE EVIDENCIAS
METODOLOGIA DE LA INVESTIGACION. OPERACIONALIZACION DE LAS VARIABLES.
Depto. Matemáticas – IES Elaios Tema: Estadística Inferencial 1. MUESTREO ALEATORIO Presentación elaborada por el profesor José Mª Sorando, ampliando y.
Depto. Matemáticas – IES Elaios Tema: Estadística Inferencial 1. MUESTREO ALEATORIO Presentación elaborada por el profesor José Mª Sorando, ampliando y.
Lingüística computacional
APRENDIZAJE SIGNIFICATIVO
Modelo de Regresión Lineal Simple
METODO TSK (TAKAGI- SUGENO.KANG). En 1985, Takagi y Sugeno aportan a la teoría del control difuso un nuevo método llamado de Takagi-Sugeno-Kang (TSK),
EL MÉTODO DE CASOS COMO ESTRATEGIA DE ENSEÑANZA-APRENDIZAJE.
* INVESTIGAR: INVESTIGAR: Proviene del Latín: in (en) vestigare (hallar, indagar, seguir vestigios La investigación es un proceso riguroso, cuidadoso.
Tamaño de muestra.
Inteligencia Artificial Capítulo I
El Uso de Las Trayectorias de Aprendizaje
Verónica Álvarez Sepúlveda
Proceso de la investigación de mercado
Profesor del curso: UNIVERSIDAD NACIONAL DEL CENTRO DEL PERU 2019-I Facultad de Ingeniería de Sistemas 1.
ESTRATEGIA DIDÁCTICA PARA LA ENSEÑANZA DE LOS NÚMEROS RACIONALES POSITIVOS.
EL EMPLEO DE LAS NETBBOKS DESDE UNA CONCEPCION TECNICISTA EN LA CLASE DE MATEMATICA Cátedra: PRACTICA DE LA ENSEÑANZA DE LA MATEMATICA. FACEN - UNCa Berrondo,
TIPOS DE ALGORITMO DE APRENDIZAJE Aprendizaje Supervisado Aprendizaje no Supervisado Aprendizaje por Refuerzo.
Transcripción de la presentación:

Aprendiendo de las observaciones Capítulo 18

Contenido Agentes aprendices Aprendizaje inductivo Aprendizaje de árboles de decisión

Aprendizaje Aprender es esencial en ambientes desconocidos, –es decir, siempre que el diseñador no sea omnisciente. El aprendizaje automático es muy útil como método de construcción de sistemas: –es decir, mejor exponer el agente a la realidad y dejar que la aprehenda antes que tratar de codificarla en frío. El aprendizaje modifica los mecanismos de toma de decisiones del agente para mejorar su rendimiento

Agentes Aprendices

El componente aprendiz (Learning element) El diseño de un componente aprendiz está determinado por: –Cuáles sub-componentes del componente de rendimiento debe ser aprendidos –Qué clase de retroalimentación es necesaria para aprender esos componentes –Cuál representación se usa para los componentes Tipos de retroalimentación: –Aprendizaje Supervisado: corregir las respuestas para cada ejemplo –Aprendizaje No Supervisado: No se le dan respuestas correctas –Aprendizaje con refuerzo: premios ocasionales

Aprendizaje Inductivo La forma más simple: aprender una función a partir de ejemplos f es la función objetivo Un ejemplo es un par (x, f(x)) El Problema: encontrar una hipótesis h tal que h ≈ f (h se aproxima a f) dado un conjunto de ejemplos de entrenamiento Esta visión de aprendizaje es muy simple: –Ignora el conocimiento previo –Supone que se dan los ejemplos necesarios

Métodos de aprendizaje inductivo Construya y ajuste h para que concuerde con f respecto al conjunto de entrenamiento (h es consistente si concuerda con f en todos los ejemplos) E.g., ajuste de la curva:

Métodos de aprendizaje inductivo Construya y ajuste h para que concuerde con f respecto al conjunto de entrenamiento (h es consistente si concuerda con f en todos los ejemplos) E.g., ajuste de la curva:

Métodos de aprendizaje inductivo Construya y ajuste h para que concuerde con f respecto al conjunto de entrenamiento (h es consistente si concuerda con f en todos los ejemplos) E.g., ajuste de la curva:

Métodos de aprendizaje inductivo Construya y ajuste h para que concuerde con f respecto al conjunto de entrenamiento (h es consistente si concuerda con f en todos los ejemplos) E.g., ajuste de la curva:

Métodos de aprendizaje inductivo Construya y ajuste h para que concuerde con f respecto al conjunto de entrenamiento (h es consistente si concuerda con f en todos los ejemplos) E.g., ajuste de la curva:

Métodos de aprendizaje inductivo Construya y ajuste h para que concuerde con f respecto al conjunto de entrenamiento (h es consistente si concuerda con f en todos los ejemplos) E.g., ajuste de la curva: La razón de Ockham (Ockham’s razor): prefiera la hipótesis más simple que es consistente con los datos

Aprendiendo árboles de decisiones El problema: Decidir esperar por una mesa en el restaurante, considerando estos atributos: 1.Alternativa: ¿Hay otro restaurante cerca? 2.Bar: ¿Hay un área de bar agradable para esperar? 3.Viernes/Sábado:¿ Hoy es Viernes o Sábado? 4.Hambre: ¿Estamos hambrientos? 5.Compañía: Número de personas en el restaurante (Nadie, Algunos, Lleno) 6.Precio: Rango de precios ($, $$, $$$) 7.Lluvia: ¿Está lloviendo? 8.Reservación: ¿Tenemos reservación? 9.Tipo: Tipo de cocina (Francesa, Italiana, Tailandesa, Hamburguesas) 10. Espera Estimada: Tiempo estimado de espera (0-10, 10-30, 30-60, >60)

Representaciones basadas en atributos Los ejemplos son descritos por valores de atributos (discretos, continuos, buleanos) E.g., situaciones en las que no esperaré por la mesa: La clasificación de los ejemplos en positivos (T) o negativos (F)

Arboles de decisión Una representación posible de las hipótesis (y de las posibles hipótesis) E.g., este es el “verdadero” árbol para decidir si debo esperar:

Expresividad Los árboles de decisión pueden expresar cualquier función de los valores de entrada. e.g., para las funciones buleanas, una fila de la tabla de la verdad → un camino hasta una hoja: Con un sentido trivial, existe un árbol de decisión consistente con cualquier conjunto de entrenamiento que se construye con un camino hasta una hoja para cada ejemplo (salvo cuando f sea una función no determinística de x). Claro que tal árbol podría no generalizar fácilmente para admitir nuevos ejemplos. Siempre se prefiera encontrar los árboles más compactos

Espacio de hipótesis ¿Cuántos árboles de decisión distintos hay para n atributos buleanos? = número de funciones buleanas = número de tablas de la verdad distintas con 2 n filas = 2 2 n E.g., con 6 atributos buleanos, tenemos 18,446,744,073,709,551,616 árboles posibles.

Espacio de hipótesis ¿Cuántos árboles de decisión distintos hay para n atributos buleanos? = número de funciones buleanas = número de tablas de la verdad distintas con 2 n filas = 2 2 n E.g., con 6 atributos buleanos, tenemos 18,446,744,073,709,551,616 árboles posibles. ¿Cuántas hipótesis puramente conjuntivas (e.g., Hambriento   Lluvia)? Cada atributo puede ser un literal positivo, uno negativo o no aparecer como literal  3 n hipótesis conjuntivas distintas Es un espacio de hipótesis más expresivo –Aumentan las oportunidades para expresar la función objetivo –Aumenta el número de hipótesis consistentes con el conjunto de entrenamiento  las prediciones pueden empeorar

Aprendizaje de árboles de decisión Objetivo: Encontrar un árbol pequeño y consistente con los ejemplos de entrenamiento Idea: Seleccione (recursivamente) el “atributo más significativo” como la raíz del sub-árbol

Seleccionando un atributo Idea: un buen atributo divide los ejemplos en subconjuntos que son (idealmente) “todos positivos” o “todos negativos” Patrons ¿Es la mejor elección?

Aprovechándo teoría de la información Para implementar la función Choose-Attribute en el algoritmo DTL El Contenido de Información (Entropía): I(P(v 1 ), …, P(v n )) = Σ i=1 -P(v i ) log 2 P(v i ) Para un conjunto de entrenamiento que contenga p ejemplos positivos y n negativos:

Ganancia de Información Un atributo A divide el conjunto de entrenamiento E en subconjuntos E 1, …, E v de acuerdo con sus valores para A, donde A tiene v valores distintos. La ganancia de información (IG) o reducción en la entropía del atributo evaluado: Escoja el atributo con el IG más grande

Ganancia de Información Para el conjunto de entrenamiento anterior, p = n = 6, I(6/12, 6/12) = 1 bit Considere los atributos Patrons y Type (y los otros también): Patrons tiene el mayor IG entre todos los atributos y por lo tanto es el elegido por el algoritmo como la raíz de todo el árbol

Continuando con ejemplo El árbol de decisión aprendido con los 12 árboles: Es bastante más simple que el “verdadero” árbol – una hipótesis más compleja no se justifica con tan poca data

Medidas de rendimiento ¿Cómo sabemos que h ≈ f ? 1.Usando teoremas sobre aprendizaje estadístico/computacional 2.Prueba a h sobre un nuevo conjunto de ejemplos de prueba (use la misma distribución sobre el espacio de ejemplos que con el conjunto de entrenamiento) Curva de aprendizaje = % correcto sobre el conjunto de prueba como función del tamaño del conjunto de entrenamiento

Resumen El aprendizaje es necesario en ambientes desconocidos o con diseñadores perezosos Agente Aprendiz = Componente de rendimiento + Componente Aprendiz En el aprendizaje supervisado el objetivo es conseguir una hipótesis simple y aproximadamente consistente con los ejemplos de entrenamiento Los árboles de decisión se construyen mejor aprovechando la ganancia de información Rendimiento en el aprendizaje = precisión de la predicción medida respecto a un conjunto de prueba.