Algoritmos Bayesianos Karina Figueroa. Preliminares Aprendizaje ◦ cuál es la mejor hipótesis (más probable) dados los dato? Red Bayesiana (RB) ◦ Red de.

Slides:



Advertisements
Presentaciones similares
Laboratorio de Fonética Universidad de Deusto (2001)
Advertisements

PRUEBAS DE HIPÓTESIS.
Tema 16: Contraste paramétrico de hipótesis I: Pruebas de contraste para un grupo. Pruebas de contraste para dos grupos: independientes o relacionados.
Distancias Los problemas de distancia son una aplicación de la perpendicularidad.
Eduardo Rodes Pastor Pablo Rubio Arias 2º Bach. A.
Algoritmo GENETICO.
Algoritmo de Regresión Logística
Selección del modelo adecuado
GeNie GeNie: entorno de desarrollo para la
Estadísticos de Prueba en el Modelo de Regresión Múltiple
REDES BAYESIANAS.
Especialista en Business Intelligence Analysis Services SSAS (Sesión 14) Microsoft SQL Server 2008 R2 Suscribase a o escríbanos a
Especialista en Business Intelligence Analysis Services SSAS (Sesión 14) Microsoft SQL Server 2008 R2 (2013) Suscribase a o escríbanos.
Redes Bayesianas Breve definición de lo que es una red bayesiana, también conocida como red de creencia, red probabilística, red causal o mapa de conocimiento.
CLADOS Granada 17 Diciembre Evolución del proyecto Resultados Presupuesto.
REDES BAYESIANAS Y DECISIÓN ESTADÍSTICA
Probabilidad condicional
Tests de hipótesis Los tres pasos básicos para testear hipótesis son
Análisis Discriminante
Sesión 2: Métodos Probabilísticos Básicos
INTELIGENCIA ARTIFICIAL.
ELEMENTOS DE ESTADÍSTICA BIVARIANTE
Clases 4 Pruebas de Hipótesis
@ Angel Prieto BenitoMatemáticas 2º Bachillerato CS1 TIPOS DE ERRORES Tema 14.4 * 2º BCS.
Sesión 4: Métodos Probabilísticos Básicos “... tenemos razones para creer que hay en la constutución de las cosas leyes de acuerdo a las cuales suceden.
1 Problema no separable linealmente Se busca obtener un algoritmo más general que permita integrar el aprendizaje entre las dos capas.
Tema 6 Razonamiento aproximado
Modelos Ocultos de Markov
Sesión 6: Redes Bayesianas - Representación
Análisis de series de tiempo Semana 9 Abril –Julio 2009.
Fundamentos del contraste de hipótesis
J. Troyano, Víctor Díaz, F. Enríquez y J. Barroso Departamento de Lenguajes y Sistemas Informáticos E.T.S. Ingeniería Informática Universidad de Sevilla.
MAPAS DE PROGRESO DEL APRENDIZAJE:
Redes Bayesianas Capítulo 14 Sección 1 – 2.
IPC 2008 Estimaciones por Bootstrap
TEMA 15 * CONTRASTES DE HIPÓTESIS
Proyecto CYTED Informe de Tareas Grupo de Investigación Estadística.
Curso de Bioestadística. ANOVA
Sesión 10: Redes Bayesianas – Aprendizaje “Preferiría descubrir una ley causal que ser rey de Persia” [Democritus]
Epidemiología Avance Proyecto FONIS
Sesión 10: Redes Bayesianas – Aprendizaje “Preferiría descubrir una ley causal que ser rey de Persia” [Democritus] Modelos Gráficos Probabilistas L. Enrique.
Inferencia Estadística
Resumen Contrastes No Paramétricos. Bondad de Ajuste.
Sesión 7: Redes Bayesianas – Inferencia
Integración de Redes Bayesianas con Programas Lógicos para Música Eduardo Morales L.Enrique Sucar Roberto Morales.
Algoritmos Genéticos en Aprendizaje Clase 3 de Computación Evolutiva.
Inferencia Multivariante Cap 10 y 11
Estimación de modelos ARMA
Sistemas Expertos Integrantes Javier Farfán Katherine Jara Héctor Gatica.
Sesión 6: Campos de Markov. © L.E. Sucar: PGM - CAM2 Campos de Markov Introducción –Modelo de Ising Representación –Tipos de Modelos –Redes de Markov.
Combinación de Programas Lógicos y Redes Bayesianas y su Aplicación a Música Eduardo Morales Enrique Sucar Roberto Morales.
Universidad de Los Andes Facultad de Ingeniería Escuela de Ingeniería Eléctrica Maestría en Ingeniería Biomédica GIBULA Máquinas de Soporte Vectorial.
Sesión 7: Redes Bayesianas – Inferencia: 2da Parte Modelos Gráficos Probabilistas L. Enrique Sucar INAOE [Neapolitan 90]
Análisis de series de tiempo
KDD y Técnicas de Minería de Datos en Weka
Sesión 6: Redes Bayesianas - Inferencia
 Dado que se ha detectado un nicho de mercado en TPV para kioscos, una empresa se plantea desarrollar una aplicación informática.  Tras un estudio del.
Probabilidad y Estadística
Redes (r, n) Suponga este sistema de 7 componentes redundante, puesto que (por hipótesis) el sistema funciona con al menos tres componentes Tiempo de falla.
FUNCIÓN DE PROBABILIDADES. ENTRE PROBABILIDADES Y FUNCIÓN HAY UNA ESTRECHA RELACIÓN…

Redes Bayesianas Título Francisco Roche Beltrán Huelva, 20 de Abril de 2007.
Estimación Estadística Tares # 3. Estimación Estadística Conjunto de técnicas que permiten dar un valor aproximado de un parámetro de una población a.
Naïve Bayes MC BEATRIZ BELTRÁN MARTÍNEZ. Primavera 2016 MC BEATRIZ BELTRÁN MARTÍNEZ 78 Introducción Es un método que no sólo porque ofrece un análisis.
CREENCIAS DEL DESARROLLO ORGANIZACIONAL..
MEJORA DE LOS APRENDIZAJES.
« Las Redes Sociales ».
18.10 — Muros estructurales especiales.
18.10 — Muros estructurales especiales.
DISEÑO ESTRUCTURAL I. LA NATURALEZA DE LA ESTRUCTURA.
Transcripción de la presentación:

Algoritmos Bayesianos Karina Figueroa

Preliminares Aprendizaje ◦ cuál es la mejor hipótesis (más probable) dados los dato? Red Bayesiana (RB) ◦ Red de creencia Clasificación de una RB ◦ Aprendizaje Estructural.  Obtener la estructura de la red ◦ Aprendizaje Paramétrico  Dada la estructura, obtener las probabilidades asociadas

Probabilidades conjuntas P(A, B) Probabilidad de ambas A y B. P(A,B)<P(A|B) P(A|B) Probabilidad condiciona.La probabilidad de A, dado B. A B

Probabilidades…. Condicional. ◦ Cuál es la prob.de que la 2ª canica sea roja dado que la 1ª es azul? ◦ P(R2|R1)? Conjunta ◦ Cuál es la prob.de que la 1ª sea roja y la 2ª azul? ◦ P(R1 y R2)?

Red Bayesiana Una red bayesiana es un grafo dirigido acíclico que consta de: ◦ Un conjunto de nodos, uno por cada variable aleatoria del “mundo” ◦ Un conjunto de arcos dirigidos que conectan los nodos ◦ Cada nodo tiene una probabilidad condicional asociada ◦ Cada arco X a Y indica una influencia directa de X sobre Y

Ejemplo: red Bayesiana Caries Dolor Hueco hijo Padre

Ejemplo de una RB

Razones para usar un RB Diagnóstico ◦ Del efecto a la causa ◦ P(Dolor | Caries) Predicción ◦ De la causa al efecto ◦ P(Caries | Dolor)

Teorema de Bayes Regla de Bayes h es la hipótesis o clase ◦ Ej. Juega tenis o no D conjunto de valores para los atributos ◦ Ej. temperatura, humedad, etc.

Teorema de Bayes P(h) probabilidad a priori de una de las clases P(D) probabilidad a priori de que los atributos tengan ciertos valores P(D|h) probabilidad a priori de que los atributos tengan ciertos valores dado que la instancia pertenece a una clase P(h|D) es la probabilidad a posteriori de que una instancia pertenezca a cierta clase

Probabilidades…. P(h). Fácil ◦ Porcentaje de ejemplos de entrenamiento pertenecientes a una clase P(D). Fácil en valores discretos ◦ Probabilidad de que los atributos tengan un cierto conjunto de valores ◦ P(temp=calor, humedad=alta, viento=poco) P(D|h). No tan fácil ◦ Muy semejante a la P(D), pero sólo se consideran las que son instancias de h.

Ejemplo A BE JM P(B)P(E) P(J | A) P(M | A) P(A | B, E) Probabilidad de influencia directa Variable aleatoria Red Bayesiana representa la probabilidad de dependencia/independencia entre las variables aleatorias Prob.cond. dado sus padres

Tipos de conexiones Edad Estatura No. Calzado Edad Estatura Ingresos Edad Estatura No. Calzado Independientes Dependientes dado E

Aplicación de una RB

Ejemplo Predecir la probabilidad de que un cierto paciente esté afectado por una enfermedad Se realiza un análisis de sangre al paciente con resultado positivo (de acuerdo con el test, el paciente sufre la enfermedad) Qué hipótesis tiene mayor probabilidad: afectado o no afectado? Se conocen de antemano los siguientes datos ◦ 0.8% de la población está afectada por la enfermedad ◦ Si una persona está afectada, el test ofrece un resultado positivo en un 98% de los casos (2% tasa de error) ◦ Si una persona no está afectada, el test ofrece resultado negativo en un 97% de los casos (3% tasa de error)

Qué hipótesis tiene mayor probabilidad: afectado o no afectado? Comparar numeradores… Conclusión?

Conclusiones Condiciones ◦ Disponer de un gran número de ejemplos de entrenamiento ◦ Se dipone de algún conocimiento inicial sobre el problema a resolver Ventajas ◦ Cada nuevo ejemplo puede aumentar o disminuir la estimación de una hipótesis (flexibilidad - incrementalidad) ◦ Conocimiento a priori se puede combinar con datos para determinar la probabilidad de las hipótesis ◦ Da resultados con probabilidades asociadas ◦ Puede clasificar combinando las predicciones de varias hipótesis ◦ Sirve de estandar de comparación de otros algoritmos

Problemas En una RB con 37 nodos se necesitan calcular: 137,438,953,472 valores

Teorema de Bayes Puede ser muy complicado calcular las probabilidades dependientes Una solución propuesta, y muy común en la práctica, es considerar probabilidades independientes: Naïve Bayes P(A,B) = P(A) P(B) ◦ Para sucesos independientes