Sesión 4: Métodos Probabilísticos Básicos “... tenemos razones para creer que hay en la constutución de las cosas leyes de acuerdo a las cuales suceden.

Slides:



Advertisements
Presentaciones similares
DISEÑO DE EXPERIMENTOS EXPERIMENTOS DE COMPARACIÓN SIMPLE
Advertisements

Modelos de Variable Dependiente Binaria -Logit y Probit-
Bivariadas y Multivariadas
Selección del modelo adecuado
KRIGING.
GeNie GeNie: entorno de desarrollo para la
Representación en espacio de estado
PRUEBAS DE HIPOTESIS HIPOTESIS
Especialista en Business Intelligence Analysis Services SSAS (Sesión 14) Microsoft SQL Server 2008 R2 Suscribase a o escríbanos a
Estimación por Intervalos de confianza
Sesión 12: Procesos de Decisión de Markov
Estadística Descriptiva: 4. Correlación y Regresión Lineal
Estadística Descriptiva: 4. Correlación y Regresión Lineal Ricardo Ñanculef Alegría Universidad Técnica Federico Santa María.
Tema 2: Métodos de ajuste
FUNCIONES DE DENSIDAD DE PROBABILIDAD
REDES BAYESIANAS Y DECISIÓN ESTADÍSTICA
Tests de hipótesis Los tres pasos básicos para testear hipótesis son
Sesión 2: Métodos Probabilísticos Básicos
Sesión 13: Lógica y Probabilidad. Incertidumbre - LD y LP, L.E. Sucar2 Contenido Lógica probabilista Redes bayesianas con nodos lógico Modelos relacionales.
INTELIGENCIA ARTIFICIAL.
Unidad VI: PRUEBAS DE HIPOTESIS
Clases 4 Pruebas de Hipótesis
MODELOS DE ELECCIÓN BINARIA: ANÁLISIS LOGIT
Sesión 2: Teoría de Probabilidad “Considero que la probabilidad representa el estado de la mente con respecto a una afirmación, evento u otra cosa para.
Unidad V: Estimación de
Pronósticos, Series de Tiempo y Regresión
Pronósticos, Series de Tiempo y Regresión
Eduardo Morales / L. Enrique Sucar
3. Funciones discriminantes para la f.d.p normal.
Sesión 6: Campos de Markov
Sesión 12: Procesos de Decisión de Markov. Incertidumbre - MDP, L.E. Sucar2 Procesos de Decisión de Markov Procesos de Decisión Secuenciales Procesos.
(Organización y Manejo de Archivos)
Manejo de Incertidumbre Sesión 13 Eduardo Morales / L. Enrique Sucar Sesión 13 Eduardo Morales / L. Enrique Sucar.
Aprendizaje (Machine Learning)  Pregunta interesante: Podemos hacer que las computadoras aprendan?  Aprender: mejorar automáticamente con la experiencia.
Distribuciones derivadas del muestreo
Combinación de Clasificadores
Tema 7: Regresión Simple y Múltiple. EJEMPLO: Aproxima bien el número de préstamos que efectúa una biblioteca a lo largo de su primer año de vida. Nos.
Unidad V: Estimación de
Razonamiento con Incertidumbre
Tema 7: Regresión Simple
Universidad Nacional de Colombia Curso Análisis de Datos Cuantitativos.
Capítulo 7 Estimación de Parámetros Estadística Computacional
Titular: Agustín Salvia
Clase 4a Significancia Estadística y Prueba Z
Sesión 2: Teoría de Probabilidad
Análisis y Diseño de Algoritmos
Sesión 7: Redes Bayesianas – Inferencia
Integración de Redes Bayesianas con Programas Lógicos para Música Eduardo Morales L.Enrique Sucar Roberto Morales.
Unidad V: Estimación de
Razonamiento probabilistico
Repaso de clase anterior
Inferencia Multivariante Cap 10 y 11
Estimación de modelos ARMA
Capítulo 1. Conceptos básicos de la Estadística
Regresión lineal múltiple
LA ESTADÍSTICA PROF.: EDMUNDO C.PARDO H. CARACAS,OCTUBRE DE 2014
Modelos Gráficos Probabilistas: Principios y Aplicaciones L. Enrique Sucar INAOE.
Pruebas de hipótesis.
Sesión 2: Teoría de Probabilidad “Considero que la probabilidad representa el estado de la mente con respecto a una afirmación, evento u otra cosa para.
Estimación y contraste de hipótesis
Sesión 6: Redes Bayesianas - Inferencia
Taller: Inteligencia Computacional
2.1 DEFINICIONES CARACTERÍSTICAS Y SUPOSICIONES.
Aplicaciones Estadísticas a las Finanzas Clase 1
Razonamiento con Incertidumbre
INFERENCIA ESTADÍSTICA
Germán Fromm R. 1. Objetivo Entender los diseños metodológicos predictivos 2.
Departamento de Informática Universidad Técnica Federico Santa María EconometríaEconometría Capitulo II.
Estimación Estadística Tares # 3. Estimación Estadística Conjunto de técnicas que permiten dar un valor aproximado de un parámetro de una población a.
Intervalos de Confianza M. C. José Juan Rincón Pasaye UMSNH – FIE Mayo de 2003.
Transcripción de la presentación:

Sesión 4: Métodos Probabilísticos Básicos “... tenemos razones para creer que hay en la constutución de las cosas leyes de acuerdo a las cuales suceden los eventos...” [Richard Price, 1763]

Incertidumbre - Métodos Básicos - L.E. Sucar 2 Métodos Básicos Probabilidad conjunta Cálculo directo (fuerza bruta): –Probabilidades marginales / condicionales –Eventos más probables Estimación directa Clasificación –Clasificador bayesiano simple –Otros clasificadores –Regresión

Incertidumbre - Métodos Básicos - L.E. Sucar 3 Formulación Muchos problemas se pueden formular como un conjunto de variables sobre las que tenemos cierta información y queremos obtener otra, por ejemplo: –Diagnóstico médico o industrial –Percepción (visión, voz, sensores) –Clasificación (bancos, empleadores,...) –Modelado de estudiantes, usuarios, etc.

Incertidumbre - Métodos Básicos - L.E. Sucar 4 Formulación Desde el punto de vista de probabilidad se puede ver como: –Un conjunto de variables aleatorias: X1, X2, X3,... –Cada variable es generalmente una partición del espacio –Cada variable tiene una distribución de probabilidad (conocida o desconocida)

Incertidumbre - Métodos Básicos - L.E. Sucar 5 Variables y Particiones A = {A1, A2, A3} B = {B1, B2, B3, B4, B5} B1 B2 B3B4 B5 A1A2A3

Incertidumbre - Métodos Básicos - L.E. Sucar 6 Preguntas Dada cierta información (como valores de variables y probabilidades), se requiere contestar ciertas preguntas, como: –Probabilidad de que una variable tome cierto valor [marginal a priori] –Probabilidad de que una variable tome cierto valor dada información de otra(s) variable(s) [condicional o a posteriori]

Incertidumbre - Métodos Básicos - L.E. Sucar 7 Preguntas –Valor de mayor probabilidad de una o más variables [abducción] –Valor de mayor probabilidad de una o más variables dada información de otra(s) variable(s) [abducción parcial o explicación] –Dados datos históricos de las variables estimar sus probabilidades [estimación o aprendizaje]

Incertidumbre - Métodos Básicos - L.E. Sucar 8 Enfoque básico (fuerza bruta) Dada la probabilidad conjunta de las variables podemos estimar todas las probabilidades requeridas P(X1, X2, X3,..., Xn) Para todos los posibles valores de cada variable (asumimos por ahora que son discretas)

Incertidumbre - Métodos Básicos - L.E. Sucar 9 Inferencia Probabilidad marginal: p(X) =  Y, Z p(X,Y, Z) Probabilidad condicional: p(X | Y) = p(X,Y) / p(Y) Donde : p(X,Y) =  Z p(X,Y, Z)

Incertidumbre - Métodos Básicos - L.E. Sucar 10 Abducción Valor más probable: Arg X [max p(X) = max  Y, Z p(X,Y, Z) ] Valor condicional más probable: Arg X [max p(X | y1) = max p(X,y1) / p(y1) ] Valor conjunto más probable : Arg X,Y [max p(X,Y) = max  Z p(X,Y, Z) ]

Incertidumbre - Métodos Básicos - L.E. Sucar 11 Ejemplo Problema de decidir cuando jugar golf? Variables –Ambiente –Temperatura –Viento –Humedad –Jugar

Incertidumbre - Métodos Básicos - L.E. Sucar 12 Ejemplo Consideremos inicialmente dos variables: ambiente (S,N,Ll) y temperatura (A,M,B) Dada la tabla de P conjunta: –Probabilidad de ambiente, temperatura –Probabilidad de ambiente conocida la temperatura (y viceversa) –Combinación de A y T más probable –Temperatura / ambiente más probable –Ambiente más probable dada la temperatura (y viceversa)

Incertidumbre - Métodos Básicos - L.E. Sucar 13 Ejemplo

Incertidumbre - Métodos Básicos - L.E. Sucar 14 Limitaciones El tamaño de la tabla y el número de operaciones crece exponencialmente con el número de variables La “tabla” conjunta nos dice poco sobre el fenómeno que estamos analizando Puede ser difícil estimar las probabilidades requeridas (por expertos o a partir datos)

Incertidumbre - Métodos Básicos - L.E. Sucar 15 Estimación de Parámetros Dados un conjunto de valores de las variables (registros), se busca estimar las probabilidades conjuntas requeridas Considerando datos completos: –Las probabilidades se pueden estimar contando el número de casos de cada valor P(Xi,Yj) ~ Ni,j / N –Esto corresponde al estimador de máxima verosimilitud cuando que no hay valores faltantes

Incertidumbre - Métodos Básicos - L.E. Sucar 16 Ejemplo Dados datos sobre lo que “jugadores” han hecho en situaciones pasadas, podemos estimar la probabilidad conjunta Consideremos el caso de 2 variables (ambiente y temperatura) y 14 registros de datos

Incertidumbre - Métodos Básicos - L.E. Sucar 17 Ejemplos Ambiente Temp. Humedad Viento Jugar soleado alta alta no N soleado alta alta si N nublado alta alta no P lluvia media alta no P lluvia baja normal no P lluvia baja normal si N nublado baja normal si P soleado media alta no N soleado baja normal no P lluvia media normal no P soleado media normal si P nublado media alta si P nublado alta normal no P lluvia media alta si N

Incertidumbre - Métodos Básicos - L.E. Sucar 18 Ejemplo

Incertidumbre - Métodos Básicos - L.E. Sucar 19 Limitaciones Se requiere una gran cantidad de datos para estimaciones confiables Se complica si hay datos faltantes Puede ser mejor estimar probabilidades marginales o condicionales (menos datos, más fácil para el experto) También puede ser complejo el tener demasiados datos (minería de datos)

Incertidumbre - Métodos Básicos - L.E. Sucar 20 Clasificación El concepto de clasificación tiene dos significados: –No supervisada: dado un conjunto de datos, establecer clases o agrupaciones (clusters) –Supervisada: dadas ciertas clases, encontrar una regla para clasificar una nueva observación dentro de las clases existentes

Incertidumbre - Métodos Básicos - L.E. Sucar 21 Clasificación El problema de clasificación (supervisada) consiste en obtener el valor más probable de una variable (hipótesis) dados los valores de otras variables (evidencia, atributos) Arg H [ Max P(H | E 1, E 2,...E N ) ] E Arg H [ Max P(H | E) ] E E = {E 1, E 2,...E N }

Incertidumbre - Métodos Básicos - L.E. Sucar 22 Tipos de Clasificadores Métodos estadísticos clásicos –Clasificador bayesiano simple (naive Bayes) –Descriminadores lineales Modelos de dependencias –Redes bayesianas Aprendizaje simbólico –Árboles de decisión, reglas Redes neuronales

Incertidumbre - Métodos Básicos - L.E. Sucar 23 Clasificación Consideraciones para un clasificador: –Exactitud – proporción de clasificaciones correctas –Rapidez – tiempo que toma hacer la clasificación –Claridad – que tan comprensible es para los humanos –Tiempo de aprendizaje – tiempo para obtener o ajustar el clasificador a partir de datos

Incertidumbre - Métodos Básicos - L.E. Sucar 24 Regla de Bayes Para estimar esta probabilidad se puede hacer en base a la regla de Bayes: EEE P(H | E) = P(H) P(E | H) / P(E) EEE P(H | E) = P(H) P(E | H) /  i P(E | H i ) P(H i ) Normalmente no se require saber el valor de probabilidad, solamente el valor más probable de H

Incertidumbre - Métodos Básicos - L.E. Sucar 25 Regla de Bayes Para el caso de 2 clases H:{0, 1}, la regla de decisión de Bayes es: E H*(E) = 1 si P(H=1 | E) > 1/2 0, de otra forma Se puede demostrar que la regla de Bayes es óptima

Incertidumbre - Métodos Básicos - L.E. Sucar 26 Valores Equivalentes Se puede utilizar cualquier función monotónica para la clasificación: E Arg H [ Max P(H | E) ] EE Arg H [ Max P(H) P(E | H) / P(E) ] E Arg H [ Max P(H) P(E | H) ] E Arg H [ Max log {P(H) P(E | H)} ] E Arg H [ Max log P(H) + log P(E | H) ]

Incertidumbre - Métodos Básicos - L.E. Sucar 27 Clasificador bayesiano simple EEstimar la probabilidad: P(E | H) es complejo, pero se simplifica si se considera que los atributos son independientes dada la hipotesis: P(E 1, E 2,...E N | H) = P(E 1 | H) P(E 2 | H)... P(E N | H) Por lo que la probabilidad de la hipótesis dada la evidencia puede estimarse como: P(H | E 1, E 2,...E N ) = P(H) P(E 1 | H) P(E 2 | H)... P(E N | H) E P(E) Esto se conoce como el clasificador bayesiano simple

Incertidumbre - Métodos Básicos - L.E. Sucar 28 Clasificador bayesiano simple Como veíamos, no es necesario calcular el denominador: P(H | E 1, E 2,...E N ) ~ P(H) P(E 1 | H) P(E 2 | H)... P(E N | H) P(H) se conoce como la probabilidad a priori, P(E i | H) es la probabilidad de los atributos dada la hipotesis (verosimilitud), y P(H | E 1, E 2,...E N ) es la probabilidad posterior

Incertidumbre - Métodos Básicos - L.E. Sucar 29 Ejemplo Para el caso del golf, cuál es la acción más probable (jugar / no-jugar) dado el ambiente y la temperatura?

Incertidumbre - Métodos Básicos - L.E. Sucar 30 Ventajas Bajo tiempo de clasificación Bajo tiempo de aprendizaje Bajos requerimientos de memoria “Sencillez” Buenos resultados en muchos dominios

Incertidumbre - Métodos Básicos - L.E. Sucar 31 Limitaciones En muchas ocasiones la suposición de independencia condicional no es válida Para variables continuas, existe el problema de discretización Alternativas: –Probabilidad conjunta (complejidad) –Descriminador lineal (variables gaussianas) –Considerar algunas dependencias (redes bayesianas)

Incertidumbre - Métodos Básicos - L.E. Sucar 32 CBS – modelo gráfico C A2 A1An …

Incertidumbre - Métodos Básicos - L.E. Sucar 33 Enfoques para clasificación C A C A Generativo Descriminativo P(C) P(A|C) P(C|A)

Incertidumbre - Métodos Básicos - L.E. Sucar 34 Extensiones TAN BAN C A2 A1An … C A2 A1An …

Incertidumbre - Métodos Básicos - L.E. Sucar 35 Descriminador lineal Se define un hiperplano (descriminante) que es una combinación lineal de los atributos: g(X) =  a j x j, x j - promedios de clase, a 1...a n - coeficientes Asumiendo una distribución normal multivariada, se puede obtener la ecuación del hiperplano en función de los promedios y covarianzas de las clases

Incertidumbre - Métodos Básicos - L.E. Sucar 36 Descriminador lineal C1 C2 X2 X1

Incertidumbre - Métodos Básicos - L.E. Sucar 37 Descriminador Lineal Para el caso gaussiano, la probabilidad posterior es una función logística (rampa): P( Cn | An ) = 1 / [ 1 + exp ( -  T An) Donde el parámetro  depende de las medias y covarianzas de las distribuciones condicionales de cada clase Ejemplo en 1-D

Incertidumbre - Métodos Básicos - L.E. Sucar 38 Costo de mala clasificación En realidad, no sólo debemos considerar la clase más probable si no también el costo de una mala clasificación –Si el costo es igual para todas las clases, entonces es equivalente a seleccionar la de mayor probabilidad –Si el costo es diferente, entonces se debe minimizar el costo esperado

Incertidumbre - Métodos Básicos - L.E. Sucar 39 Referencias D. Michie, D.J. Spiegelhalter, C.C. Taylor, “Machine Learning, Neural and Statistical Classification”, Ellis Horwood, 1994 [Notas Jordan] – Capítulo 5 J. Cheng, R. Greiner, “Comparing Bayesian network classifiers”, UAI´99, Libros básicos de probabilidad, por ej.: –Meyer, Introductory Probability and Statistical Applications –Wasserman, All of Statistics, Springer

Incertidumbre - Métodos Básicos - L.E. Sucar 40 Actividades Implementar clasificador bayesiano simple en MatLab (estimación de parámetros y cálculo de probabilidades) Probar con datos de Golf Probar con otras bases de datos