La descarga está en progreso. Por favor, espere

La descarga está en progreso. Por favor, espere

Algoritmos Bayesianos Karina Figueroa. Preliminares Aprendizaje ◦ cuál es la mejor hipótesis (más probable) dados los dato? Red Bayesiana (RB) ◦ Red de.

Presentaciones similares


Presentación del tema: "Algoritmos Bayesianos Karina Figueroa. Preliminares Aprendizaje ◦ cuál es la mejor hipótesis (más probable) dados los dato? Red Bayesiana (RB) ◦ Red de."— Transcripción de la presentación:

1 Algoritmos Bayesianos Karina Figueroa

2 Preliminares Aprendizaje ◦ cuál es la mejor hipótesis (más probable) dados los dato? Red Bayesiana (RB) ◦ Red de creencia Clasificación de una RB ◦ Aprendizaje Estructural.  Obtener la estructura de la red ◦ Aprendizaje Paramétrico  Dada la estructura, obtener las probabilidades asociadas

3 Probabilidades conjuntas P(A, B) Probabilidad de ambas A y B. P(A,B)<P(A|B) P(A|B) Probabilidad condiciona.La probabilidad de A, dado B. A B

4 Probabilidades…. Condicional. ◦ Cuál es la prob.de que la 2ª canica sea roja dado que la 1ª es azul? ◦ P(R2|R1)? Conjunta ◦ Cuál es la prob.de que la 1ª sea roja y la 2ª azul? ◦ P(R1 y R2)?

5 Red Bayesiana Una red bayesiana es un grafo dirigido acíclico que consta de: ◦ Un conjunto de nodos, uno por cada variable aleatoria del “mundo” ◦ Un conjunto de arcos dirigidos que conectan los nodos ◦ Cada nodo tiene una probabilidad condicional asociada ◦ Cada arco X a Y indica una influencia directa de X sobre Y

6 Ejemplo: red Bayesiana Caries Dolor Hueco hijo Padre

7 Ejemplo de una RB

8 Razones para usar un RB Diagnóstico ◦ Del efecto a la causa ◦ P(Dolor | Caries) Predicción ◦ De la causa al efecto ◦ P(Caries | Dolor)

9 Teorema de Bayes Regla de Bayes h es la hipótesis o clase ◦ Ej. Juega tenis o no D conjunto de valores para los atributos ◦ Ej. temperatura, humedad, etc.

10 Teorema de Bayes P(h) probabilidad a priori de una de las clases P(D) probabilidad a priori de que los atributos tengan ciertos valores P(D|h) probabilidad a priori de que los atributos tengan ciertos valores dado que la instancia pertenece a una clase P(h|D) es la probabilidad a posteriori de que una instancia pertenezca a cierta clase

11 Probabilidades…. P(h). Fácil ◦ Porcentaje de ejemplos de entrenamiento pertenecientes a una clase P(D). Fácil en valores discretos ◦ Probabilidad de que los atributos tengan un cierto conjunto de valores ◦ P(temp=calor, humedad=alta, viento=poco) P(D|h). No tan fácil ◦ Muy semejante a la P(D), pero sólo se consideran las que son instancias de h.

12 Ejemplo A BE JM P(B)P(E) P(J | A) P(M | A) P(A | B, E) Probabilidad de influencia directa Variable aleatoria Red Bayesiana representa la probabilidad de dependencia/independencia entre las variables aleatorias Prob.cond. dado sus padres

13 Tipos de conexiones Edad Estatura No. Calzado Edad Estatura Ingresos Edad Estatura No. Calzado Independientes Dependientes dado E

14 Aplicación de una RB

15 Ejemplo Predecir la probabilidad de que un cierto paciente esté afectado por una enfermedad Se realiza un análisis de sangre al paciente con resultado positivo (de acuerdo con el test, el paciente sufre la enfermedad) Qué hipótesis tiene mayor probabilidad: afectado o no afectado? Se conocen de antemano los siguientes datos ◦ 0.8% de la población está afectada por la enfermedad ◦ Si una persona está afectada, el test ofrece un resultado positivo en un 98% de los casos (2% tasa de error) ◦ Si una persona no está afectada, el test ofrece resultado negativo en un 97% de los casos (3% tasa de error)

16 Qué hipótesis tiene mayor probabilidad: afectado o no afectado? Comparar numeradores… Conclusión?

17 Conclusiones Condiciones ◦ Disponer de un gran número de ejemplos de entrenamiento ◦ Se dipone de algún conocimiento inicial sobre el problema a resolver Ventajas ◦ Cada nuevo ejemplo puede aumentar o disminuir la estimación de una hipótesis (flexibilidad - incrementalidad) ◦ Conocimiento a priori se puede combinar con datos para determinar la probabilidad de las hipótesis ◦ Da resultados con probabilidades asociadas ◦ Puede clasificar combinando las predicciones de varias hipótesis ◦ Sirve de estandar de comparación de otros algoritmos

18 Problemas En una RB con 37 nodos se necesitan calcular: 137,438,953,472 valores

19 Teorema de Bayes Puede ser muy complicado calcular las probabilidades dependientes Una solución propuesta, y muy común en la práctica, es considerar probabilidades independientes: Naïve Bayes P(A,B) = P(A) P(B) ◦ Para sucesos independientes


Descargar ppt "Algoritmos Bayesianos Karina Figueroa. Preliminares Aprendizaje ◦ cuál es la mejor hipótesis (más probable) dados los dato? Red Bayesiana (RB) ◦ Red de."

Presentaciones similares


Anuncios Google